当前位置:首页|资讯|人工智能

AI立法进行时⑩|美八家AI公司再作自愿承诺,安全、可靠和值得信赖或成行业共识

作者:21世纪经济报道发布时间:2023-09-14

原标题:AI立法进行时⑩|美八家AI公司再作自愿承诺,安全、可靠和值得信赖或成行业共识

21世纪经济报道 记者郑雪 北京报道

近日,白宫网站内容显示,美国政府再次获得八家领先人工智能公司承诺,他们将负责任地开发人工智能。正如白宫新闻稿所说,这些公司的承诺强调了人工智能未来的三个基本原则:安全、可靠和值得信赖,标志着向开发负责任的人工智能迈出了关键一步。

这并不是美国政府第一次获得AI公司承诺。今年7月,美国拜登政府在白宫召集亚马逊、Anthropic、谷歌等七家AI头部公司,获得他们的自愿性承诺以发展负责任人工智能。

受访专家表示,安全、可靠和值得信赖或将得到更多企业实践,逐渐发展成为美国AI企业的行业共识。与此同时,全球人工智能治理范围内,安全可信已成为全球人工智能治理的基本目标。

美政府再获八家公司自愿性承诺

当地时间9月12日,美国拜登政府再次获得八家领先人工智能公司发展负责任AI的自愿性承诺。

据白宫新闻稿介绍,美国商务部长吉娜·雷蒙多(GinaRaimondo)、白宫办公厅主任杰夫·齐恩茨(JeffZients)和政府高级官员在白宫召集更多行业领袖,获得八家公司的第二轮自愿性承诺,这八家公司分别为Adobe、Cohere、IBM、Nvidia、Palantir、Salesforce、ScaleAI和Stability,而这将有助于推动AI技术的安全、可靠和值得信赖。

企业的自愿性承诺何以成为当前美国治理人工智能的重要抓手?

北京航空航天大学法学院副教授赵精武对21世纪经济报道记者分析,AI技术的更新迭代周期越来越短,即便是企业可能也无法准确预测到相关技术的未来发展方向,更遑论监管机构。从促进技术创新以及保障监管政策与技术发展的同步性考量,以企业承诺的方式作为自律监管要求可能更符合AI治理需求,并且更贴合产业实践的前沿问题

北京大成律师事务所高级合伙人邓志松认为可能出于两点考虑,一是正式立法程序可能耗费较长时间,进程中也难免面临各方博弈与掣肘,相比之下承诺是更为便捷、灵活的方式,可以更好地适应AI行业的高速发展态势,管控不断变化的风险。二是AI监管专业性极强,政府监管措施的有效落地与企业的配合密不可分,柔性措施能够更好地保证企业的合作态度。同时他表示,柔性的承诺与更为正式的行政命令或法律法规并非截然对立。

正如白宫新闻稿所说,“这些承诺是政府行动的重要桥梁,也是拜登-哈里斯政府兑现人工智能承诺和管理风险的综合方法的一部分。政府正在制定一项行政命令,并将继续寻求两党立法,以帮助美国在负责任的人工智能开发方面发挥引领作用。”

和首批七家人工智能公司一样,这八家公司承诺保证AI在安全、可靠和值得信赖三方面将采取措施:

在向公众推出产品之前确保其安全。

承诺在发布人工智能系统之前对其进行内部和外部安全测试。这项测试将部分由独立专家进行,旨在防范一些最重要的人工智能风险来源,例如生物安全、网络安全及更广泛的社会影响。

承诺在整个行业以及与政府、民间社会和学术界分享有关管理人工智能风险的信息。这包括最佳安全实践、有关试图规避保障措施的信息以及技术合作。

将构建安全的系统放在首位。

承诺投资网络安全和内部威胁防护措施,以保护专有和未发布的模型权重。这些模型权重是人工智能系统最重要的部分,公司一致认为,仅在有意且考虑到安全风险时才发布模型权重。

致力于促进第三方发现和报告其人工智能系统中的漏洞。通过强大报告机制促使快速发现并修复问题。

赢得公众信任。

致力于开发强大的技术机制,如水印系统,以确保用户知道内容何时由人工智能生成。这一行动使人工智能的创造力和生产力得以蓬勃发展,同时减少了欺诈和欺骗的危险。

承诺公开报告其人工智能系统的能、局限性以及适当和不适当使用的领域。这些报告将涵盖安全风险和社会风险,例如对公平和偏见的影响。

承诺优先研究人工智能系统可能带来的社会风险,包括避免有害的偏见和歧视以及保护隐私。

致力于开发和部署先进的人工智能系统,以帮助解决社会面临的最大挑战。如癌症预防、缓解气候变化,以及介于两者之间的许多事情。

安全、可靠和值得信赖或成共识

赵精武提示,考虑AI技术本身就存在广泛的应用场景,在传统业务模式与AI技术结合的背景下,为了避免出现“技术安全事故”“算法歧视”“技术规训人类”等问题,需要在相应的应用场景下适用“安全、保障、可信”原则。可以看到的是,安全、可靠和值得信赖,正逐渐向AI产业更广阔处和更深处延伸,以推动美国人工智能向负责任发展。

以此次八家人工智能公司为例,既有人工智能企业做出相关承诺,如拥有大量人工智能技术积淀的IBM,8月面向中国启动开放式的AI技术平台IBM watsonx;国际CRM巨头Salesforce推出AI Cloud套件,旨在将生成人工智能纳入整个Salesforce平台;基础大模型领域排名前列的独角兽Cohere。同时AI垂直行业公司也参与其中,如Adobe发布了AI图像生成模型套件Adobe Firefly(萤火虫),Stability推出图像生成模型Stable Diffusion XL,

还有一些公司,开发相关人工智能平台或通过各种方式逐渐切入大模型,但最为人熟知的却是关于数据和算力。Nvidia(英伟达)是此轮AI发展最大“军火商”,今年3月份推出一整套用于自定义AI基础模型的生成式AI云服务。2016年成立的初创企业Scale AI,其核心业务为数据标注,当前正切入MLOps和LLM领域,提供各类工具、平台和服务。数据分析行业排名前列、曾为NSA等美国官方机构服务的Palantir发布了人工智能平台(AIP),AIP允许商业和政府部门使用基于他们的私人数据集的大型语言模型,并将于本月向“精选客户”开放。

邓志松表示,“本次参与自愿承诺的8家企业所在领域所呈现出的多样性,充分反映了当前AI技术的蓬勃发展已使其形成了较成熟的产业链,并在各领域得到广泛应用。这同时也说明,AI产业链上硬件制造、云服务、数据处理及内容生成等各环节,均应实践‘安全、可靠和值得信赖’原则以更好地提升自身产品的安全保障水平,实现合规经营,保护消费者权益。”

“AI公司落实相关原则,主要还是和具体业务相关。所谓的安全、可靠和值得信赖实际上转变成为了产品质量符合技术标准。以算力为例,英美达也生产芯片,算力依赖的GPU则需要质量过关,至于用户数据滥用风险等问题则属于人工智能治理另一层面的议题。”赵精武补充道。

一个值得关注的问题,自愿性承诺如何落实?又该如何规制?

“企业的承诺或有可能通过科技伦理审查事项、企业社会责任等方式作为软法治理工具予以确保实施,并且,在具体的司法实践中,因企业未履行承诺导致侵权损害等结果时,未履行承诺的行为可能会被法院视为‘存在过错’,进而要求企业承担侵权责任。”赵精武说道。

邓志松提示,承诺虽是自愿,但其约束力仍不容小觑。一方面,如果企业未能遵守其承诺,将可能面临声誉受损、消费者信任度下降等问题,将给企业经营发展带来极大的负面效应。另一方面,自愿承诺并不意味着企业违法行为的绝对豁免,如果企业违背承诺所实施的行为涉嫌违法违规,政府依然可以通过行政执法或司法手段对其进行规制。

随着AI技术的快速发展,安全、可靠和值得信赖的原则或许将得到更多企业实践,成为行业共识。“这一原则很可能会成为美国乃至更大范围内AI企业的行业共识。”邓志松说道。在他看来,企业、监管、受众等各类主体均有充分动力推动落地。

值得关注的是,安全可信已成为全球AI治理的基本目标,各国人工智能相关法规均有所体现。欧盟在《人工智能法案》提出“安全、可信和有伦理的人工智能”这一治理目标,并且在2020年的《人工智能白皮书》、2019年的《人工智能道德准则》等规范性文件中也反复提及“可信赖的人工智能”。此外,我国《生成式人工智能服务管理暂行办法》第四条提及提供和使用生成式AI,应该尊重社会公德和伦理道德;第六条提及“鼓励采用安全可信的芯片、软件、工具、算力和数据资源”。

更多内容请下载21财经APP


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1