关于我们

电话:0471- 6326309

邮箱:huhhot-hr@yingkelawyer.com

地址:呼和浩特赛罕区乌兰察布东路58号内蒙古自治区供销合作社联合社大楼3层

导航链接
电话:0471- 6326309 邮箱:huhhot-hr@yingkelawyer.com工作时间:工作日 8:30—17:30北京市盈科(呼和浩特)律师事务所,欢迎您!客服咨询

盈科律师事务所_呼和浩特最好的律师事务所_内蒙古知名律师 - 盈科律所

盈科国际盈科国际

盈科国际|盈科旧金山执行主任考察硅谷企业并解读AI科技创新

图片

在数字化浪潮的推动下,人工智能(AI)已成为科技创新的前沿阵地。2024年5月27日至6月2日,盈科旧金山执行主任刘升中陪同“2024博商美国硅谷斯坦福-创新AI研学之旅”考察团,深入硅谷,与顶尖企业和学术机构进行了为期一周的深度交流和考察。


活动内容

图片

(图为斯坦福大学正门)

图片

Barry Katz教授

图片

霍夫曼

考察活动从斯坦福大学开始,Barry Katz教授向企业家们传授了硅谷创新思维在组织中的应用。斯坦福大学作为硅谷的摇篮,孕育了惠普、谷歌、优步、OPEN AI、英伟达等众多科技巨头,其成功秘诀在于“产研结合”。课程结束后,Founders Space创始人霍夫曼的演讲“投资人眼中的AI最新趋势以及硅谷风险投资用来挑选独角兽的标准”以生动的案例和翔实的分析论证了AI的巨大发展前景以及可能的成长路径。

图片

(硅谷及其全球知名的科技创新企业)


图片
图片
图片

首席科学家Mr. Kai Liu

5月28日,考察团访问了微软硅谷公司,首席科学家Mr. Kai Liu分享了微软的AI战略和AZURE AI产品。微软通过创建负责任的AI工具、扩大RAI团队、发布透明度报告等措施,致力于AI技术的健康发展。

图片
图片

Naeem zafar教授

5月29日,考察团来到位于湾区南部的plug and play silicon valley room,伯克利大学的Naeem zafar教授以动画形式展示了AI技术的前瞻性,并有6家硅谷AI明星企业进行了创业idea的现场展示和交流。

图片

刘升中主任

图片

谷歌AI副总裁Bill Jia

5月30日,OPEN AI原研究员Kenneth Stanley教授带来了一场关于创新思维的头脑风暴。下午,谷歌AI副总裁Bill Jia介绍了GEMINI技术及DeepMind产品Project Astra,展示了AI在多模态领域的广泛应用。5月31日,英伟达核心技术人员和META首席科学家/产品经理分别就各自公司的AI技术和产品进行了深入讲解。英伟达的Blackwell GPU和META的Llama 3大语言模型,标志着AI技术在产业革命中的重要作用。

图片

刘升中主任与微软负责人合影(左二)

考察团在紧张的考察之余,也体验了APPLE PARK的VISION PRO和最新产品,并在蒙特雷海滩留下了美好回忆。盈科旧金山执行主任刘升中全程参与了此次考察,与科技精英和专家学者进行了深入交流,为考察团成员提供了创业、投资及知识产权的法律解答,并建立了与企业家和学术界的友谊与联系。


“盈科全球一小时法律服务生态圈”为全球客户提供包括法律、会计、税务、咨询、知识产权、资产管理、投融资、并购、商账管理、ESG等专业服务,覆盖基础设施、能源、贸易、农业、矿业、文化旅游、体育、科技创新、数字经济、教育、产业园区、房地产、新材料、大健康、电子信息技术、金融、政府招商等产业领域,并实现客户需求在一小时内与全球范围的专业服务团队对接。


盈科旧金山秉持“提供机会、促进交易、创造价值、解决问题”的服务方针,致力于搭建全球科技与法律服务的桥梁,依托盈科全球一小时法律服务生态圈,为全球客户提供跨地域、跨语言、跨文化、跨领域的一站式综合服务。与客户共同探索AI科技创新的无限可能,共创科技与法律服务的美好未来。

图片


深度思考

从最初的机器学习到现在的生成式AI,AI技术正在快速爆发,也在不断拓展其能力和应用领域。如何看待AI?如何与Ai伴舞?如何评价 AI的风险?以上三个问题,引起了我的思考,作为“盈科全球一小时法律服务生态圈”的参与者与建设者,我从法律层面谈谈我对AI现象的看法。


(一)

AI带来的法律问题

1、伦理风险:如果训练数据有偏见、信息误导、信息滥用以及对个人自主性的干预,算法和模型也会有偏见,从而导致生成式人工智能的回应和建议出现歧视性的结果。

2、侵权风险:不法行为人有可能通过攻击大规模语言模型,提取出训练数据中的核心隐私和敏感个人信息,从而导致个人信息、隐私的大规模泄露,形成“大规模微型侵害”的现象。

3、责任归属问题:当AI系统做出错误决策或造成损害时,确定责任归属是一个复杂的问题。

4、透明度问题:许多AI系统,尤其是深度学习模型,其决策过程往往是“黑箱”,缺乏透明度和可解释性。

5、阶层固化问题:与人类历史上的其他任何时期相比,这种信息技术有可能造成更大的收入差距,催生大量的“无用阶层”。

6、能源消耗;随着人工智能已经成为国际竞争新的焦点,大模型对算力的巨大消耗也对低碳转型目标的实现带来新的挑战。


(二)

AI的监管要求及合规方向

1、AI要符合现有监管要求

(1)数据最小化,仅收集完成任务所必需的数据;

(2)透明度,清晰地告知用户其数据如何被收集和使用;

(3)数据主体的权利,确保用户能够访问、更正和删除其个人数据;

(4)数据安全,采取适当的技术和组织措施保护数据不受未经授权的访问或泄露。















2、AI的未来合规方向

(1)制定AI特定的法规,需要新的法律框架来专门监管AI技术,确保其符合伦理和法律标准。

(2)增强透明度和可解释性,要求AI系统开发者提高其系统的透明度和可解释性,使其决策过程更加清晰。

(3)跨学科合作,法律专家、技术专家和伦理学家需要合作,共同制定合理的监管措施。


3、法律的滞后性及价值

(1)法律来源于生活,并服务于生活,但最终高于生活。

(2)创新可以突破法律的束缚,但不能无视法律的存在。

(3)AI带来的大量知识产权纠纷需要“盈科全球一小时”法律服务。


(三)

全球AI立法现状

2023年7月13日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部和广电总局公布《生成式人工智能服务管理暂行办法》,自2023年8月15日起施行,成为全球第一部关于生成式人工智能治理的专门法律规范,与《网络安全法》《数据安全法》《个人信息保护法》《科学技术进步法》等上位法律,以及《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等形成关于生成式人工智能服务的立体规则体系。要求主要有以下几点:(一)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止民族、信仰、国别、地域、性别、年龄、职业、健康等歧视,强调在数据治理中防止偏见和歧视;(二)使用具有合法来源的数据和基础模型,涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形,同时提高训练数据的真实性、准确性、客观性、多样性以及对标注人员进行必要培训等;(三)支持行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等在生成式人工智能技术创新、数据资源建设、转化应用、风险防范等方面开展协作,推动生成式人工智能基础设施和公共训练数据资源平台建设,促进算力资源协同利用等。

2024年3月12日,欧盟议会通过《人工智能法案》(AI Act)后,欧盟正在为快速发展的人工智能领域制定最全面的保护和管理机制。这项全新的法律旨在解决人们对这种快速发展的技术带来的偏见、隐私和其他风险的担忧。该立法将禁止在工作场所和学校使用人工智能来检测情绪,并限制人工智能在筛选工作申请等高风险情况下的使用范围。它还将对生成式人工智能工具施加全球第一个法律层面上的限制。

美国目前没有任何关于AI的实质性立法。


作者信息

图片

刘升中

盈科旧金山执行主任、盈科广州权益合伙人、中国律师 

TEL:1(415)335 1720(美国)

13926883429(中国)

E-MAIL:

liushengzhong@yingkelawyer.com


地址

呼和浩特赛罕区乌兰察布东路58号内蒙古自治区供销合作社联合社大楼3层

客服咨询

扫码关注公众号

扫码关注公众号

保存图片,微信识别二维码

  打开微信