2024年,注定是人工智能年。
2024年10月8日和9日,诺贝尔奖物理奖和化学奖花落人工智能。两位物理学奖得主获得诺奖的依据是“基于人工神经网络实现机器学习的基础性发现和发明”。三位化学奖得主获奖的依据是“利用人工智能计算蛋白质设计,提高蛋白质结构预测效率”。
除了科研盛况,人工智能继续主导商业领域的竞争。2024年,不仅Meta、谷歌、亚马逊、Open AI等头部人工智能公司继续在大模型领域你追我赶,纷纷推出自己研发的生成式人工智能产品,马斯克旗下的特斯拉也在诺奖颁奖后的第三天召开主题为“We Robot”的发布会,推出自己的Optimus人形机器人和赛博无人驾驶出租车。
不过,与人工智能研究与应用的盛况相对应的是,就在几天前,在以硅谷闻名遐迩的加州是全球人工智能产业的中心,人工智能的立法遭遇挫折。
当地时间9月29日,加州州长凯文·纽森(Gavin Newsom)否决了此前参众两院通过的人工智能监管法案—前沿人工智能模型安全创新法(Safe and Secure Innovation for Frontier Artificial Intelligence Models Act)。
该法案被否决引出人工智能产业发展中的核心问题:人工智能监管如何在创新与安全之间权衡取舍?
前沿人工智能模型安全创新法给人工智能公司带上紧箍咒
前沿人工智能模型安全创新法的立法背景是,加州政府运行秘书要评估人工智能研发及生产经营活动对加州政府、加州企业和居民带来的影响。
人工智能技术给社会带来的影响是广泛的。比如,人工智能带来的技术之一,深度伪造(deep fake),就已经给美国社会带来巨大的影响。其具体影响我们在下文详述。
前沿人工智能模型安全创新法对人工智能开发公司施加了严厉的监管要求。其主要内容包括:
(1)立法规定纳入监管的模型标准。如果人工智能开发公司将要开发的模型符合立法规定的标准,则在开发并训练模型前,公司必须向监管部门提交材料,证明其符合开发条件且遵守开发标准。比如,公司必须证明其有能力在模型出现立法所描述的危险时一键启动死亡开关(kill switch),立刻关掉模型。
(2)立法要求人工智能开发公司保有一份安全议定书。议定书的有效期从人工智能开发公司启动开发并训练模型到模型可以付诸使用的期间,以及此后的五年。在此期间,公司必须保有与模型相关的材料。如果州检察长要求提交材料,公司必须随时提交,供后者审查。
(3)规定三项禁止使用的行为。禁止为了实现与模型训练或模型评估没有直接联系的目的使用立法规定的模型或模型衍生品;禁止为了实现不符合立法的目的使用立法规定的模型或模型衍生品;禁止制作可能造成重大损害的用于政府、商业或公共场合使用的模型或模型衍生品。
(4)从2026年1月1日起,人工智能开发公司聘请外部审计,每年对公司是否合规,即符合以上立法的监管要求制作独立的审计报告。
围绕“前沿人工智能模型安全创新法”的各方博弈
以上提及的只是法案对人工智能开发公司施加的监管条件的主要部分。不过,这些就足以让硅谷科技公司们难以接受了。
法案几乎遭到硅谷整个人工智能产业的强烈反对。(有趣的是,马斯克也成立了人工智能开发公司,但是,马斯克是唯一支持法案的科技巨头。)
反对的主要理由是:法案给人工智能开发公司带来太大的合规风险,因而扼杀科技创新。
比如,反对者认为法案把立法者想象的风险强加给科技公司,强迫模型开发者承担预期之外的风险成本。
再比如,反对者认为法案的立法者把他们能想象出来的以及(甚至)想象之外的各种可能的损害(而且这些损害既包括模型本身造成的,也包括第三方造成的)全部要求模型开发公司承担损害赔偿责任。
这样的法案一旦通过,无异于给人工智能开发公司戴上紧箍咒。谁还敢开发人工智能模型?
反对者不仅包括人工智能开发公司,还包括为人工智能开发提供融资的各种风险投资公司。而且,很多学术界人士,比如人工智能研究人员也反对该法案。很多研究人员担心,法案规定的损害赔偿责任范围太广,可能殃及研究人员。
法案的支持者基本上从科技伦理、公共安全的角度为之辩护。比如,法案的发起人之一,加州参议员斯考特·维纳(Scott Wiener)就痛批纽森否决法案使得加州立法机构让人工智能承担责任的努力遭受重大挫折。
维纳认为,大型人工智能科技公司拥有强大的科技力量,却不受政府政策的约束,这是很危险的。该法案被否决进一步瘫痪州议会管控科技产业的能力。
纽森虽然否决了法案,但是,他没有直白地表达对法案是非对错的立场,而是另辟蹊径,为否决法案寻找理由。
纽森认为,法案只规范大规模的耗资巨大的模型,没有把小规模的模型纳入规范。人工智能产业发展迅速,很多小规模、专业化模型造成的损害不比大模型小。所以,纽森认为法案的规范力度远远不够。
纽森用巧妙的否决理由既避免在正反两种观点中间选边站队,又为未来优化立法,完善对人工智能的监管留下充分的空间。可谓用心良苦!
人们对人工智能的认知有限,监管思路尚难统一
实际上,人们对人工智能的认知仍然有限,人工智能产业突飞猛进的发展给监管理论和立法实践带来诸多难题。
以前文提到的深度伪造为例。这是一种利用机器学习(machine learning)模型将图片和视频合并叠加到原图片或视频上,借助神经网络技术进行大样本学习,将个人的声音、面部表情及身体动作拼接合成虚假内容的人工智能技术。
通过深度伪造技术合成的形象已经达到可以乱真的水平。比如,2018年4月,一段美国前总统奥巴马抨击时任总统特朗普的讲话视频在社交网络上得到200多万次的播放和五万多次的点赞。但是,事后人们才知道这不是真正的奥巴马,而是深度伪造技术合成的。
但是,我们不能下结论说深度伪造技术不好。深度伪造技术本身是中性的,既可以用来创造价值,也可以被用来诈骗甚至犯罪。
问题是,如何立法规范这种技术呢?这种技术深入到著作权、传媒、财产权、合同等各个领域。单独为其立法成本太高,预期适用效果不会很好。
再比如,自动驾驶也给监管理论和立法带来难题。自动驾驶是靠人工智能操作的。如果自动驾驶造成事故,谁应该承担责任?承担责任的标准如何界定?
当前侵权法理论中的过错责任和无过错责任是“前人工智能时代”创设的。在人工智能时代简单套用过错责任和无过错责任,仿佛用牛顿的经典力学解释爱因斯坦的相对论。
人工智能属于新兴战略性高科技产业。由于人们对人工智能的认知仍然有限,导致监管理论尚不成熟,在此背景下,各国立法基本尚处于摸索阶段。所以,各国的监管思路尚不统一。
比如,欧盟对人工智能的监管偏重安全。欧盟人工智能法案(EU AI Act)要求人工智能开发公司开发出来的人工智能产品能否接受人类的监督,达到立法规定的精准、稳健性和网络安全标准(14、15条)。人工智能开发公司必须向用户提供明确的信息,采用风险管理和质量管理系统(第19、3、17条)。
为了有效地实施欧盟人工智能法案,法案规定,欧盟成立欧盟人工智能理事会(European AI Board)作为中央监管机构。与之相呼应,各成员国成立人工智能监管机构。
同处欧洲但退出欧盟的英国,则采用偏重创新的立法理念。英国的具体监管思路是,既要推动人工智能的发展,又要应对人工智能的发展可能给不同部门或产业带来的风险。
在此监管思路下,英国不单独为人工智能立法,更不对人工智能专门设立监管机构,而是要求各部门制定规则,应对人工智能的发展可能给各部门带来的风险。比如,医疗部门会审视人工智能的发展对医疗产业和部门带来的影响,然后,制定规则,应对可能的风险。
这样,英国的人工智能监管思路可以总结为:把人工智能的监管权下放给各部门,各部门负责建立、发展并监督“负责任的人工智能”。
实际上,我国近年来各部门也在积极应对人工智能的发展及其监管。比如,针对人工智能合成内容。2021年,中国国家网信办、国家发改委、教育部、科技部、工信部、公安部、市场监管总局、广电总局等有关主管部门已出台《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理暂行办法》等法律法规,对计算机合成内容进行管控。
《互联网信息服务算法推荐管理规定》要求对算法生成合成的信息作显著标识,并要求提供互联网新闻信息服务的算法推荐服务提供者和使用者,不得生成合成虚假新闻信息。
《互联网信息服务深度合成管理规定》则更加细致地规定了包括智能对话、智能写作、人脸生成、人脸操控、姿态操控等具有生成或显著改变信息内容功能的深度合成服务应当遵守的要求,包括以显著标识的形式向公众提示。
《生成式人工智能服务管理暂行办法》进一步对生成式人工智能的开发与使用等进行规范,旨在促进生成式人工智能健康发展和规范应用。
我国人工智能统一立法不能操之过急
近年来,我国法律界主张对人工智能进行统一立法的呼声很高涨。很多学者凭借法律想象对我国人工智能立法中的问题积极献言献策,力图促成人工智能统一立法早日落地。
比如,有的学者套用民法上的概念不仅界定人工智能的法律主体地位,还给人工智能确定监护人。更多的学者从宏大的视角讨论人工智能的立法定位、路径等宏大问题。
作为一种新兴技术,人工智能发展快速,其产业竞争激烈。而且,人工智能技术对一个国家或经济体在国际竞争中的作用举足轻重。
在此背景下,对人工智能的监管立法必须慎重。既要规范人工智能技术可能对个体权利及公共安全带来的损害风险,更要保护并鼓励创新,避免人工智能产业因为迎合监管而背负过重的合规成本而窒息产业发展。
(作者王佐发为西南科大法学院副教授)