出品|搜狐科技
作者|郑松毅
对于备受争议的加州AI监管法案(SB 1047),在临近立法机构审判时刻,马斯克表明了自己的立场。
8月27日,马斯克发文表示,“这是一个艰难的决定,会让一些人感到不高兴,但综合考虑,我认为加州应该通过SB 1047人工智能监管法案。”
“20 多年来,我一直倡导人工智能监管,就像我们监管任何对公众构成潜在风险的产品/技术一样。”马斯克说。
在最近的公开演讲中,马斯克表示,AI将很快超越人类的智能水平,这种“超级智能” 可能会产生不可预测的行为,甚至可能不再受人类的控制,给人类带来“生存威胁”。
因此,他呼吁在开发强大的AI系统之前,应先确保其安全性和可控性。
法案曾遭联合反对
日前,一个名为“SB-1047”的AI监管法案成为焦点,引来众多AI大佬不满。
该法案全称为《前沿人工智能模型安全创新法案》(以下简称“法案”),旨在为AI模型树立安全标准,明确责任划分,以防止AI滥用带来的灾难性后果。
不得不说,该法案本意是好的,但由于其过于武断的监管条例,引来美国人工智能初创企业、科技巨头、学术界的联合反对,认为其抑制了技术创新。
根据《法案》,受重点监管的AI模型范围包括使用超过 10^26 次整数或浮点运算的计算能力进行训练的人工智能模型,其成本超过一亿美元。
同时,利用等于或大于 10^25 次整数或浮点运算三倍的计算能力,对范围内的模型进行微调而创建的人工智能模型也在监管范围内。
简单来说,当前市场上的主流AI大模型几乎都被包含在内,需接受“重点照顾”。
另外,《法案》直接要求开发者对模型开发及后续衍生应用承担法律责任。
“在模型正式发布前,开发者应保证模型处于未经许可禁止访问状态,并保证模型在发布后不会对社会造成严重损害。”
“如在安全风险评估中发现模型有潜在安全风险,则开发者不得将模型用于商业或公开用途,也不得将模型衍生品用于商业或公开用途。”
《法案》规定,开发者每年需向监管部门上交一份由首席技术官或更高职位官员签署的安全证明,延迟未交或做伪证将受到处罚,甚至可能入狱。
同时,其要求开发者对“危险事件”具备及时响应能力:要在获知事件发生72小时内总结上报给监管部门,同时在设计代码时要让模型具备迅速“全面关闭”能力,以便及时停止使用。
“拉锯战”再升级
截至目前,该法案已提交至州立法机构等待最终审判结果。AI大佬们也纷纷介入表明自己立场,让这场“拉锯战”不断升级。
在马斯克发声前一周,OpenAI加入反对派,对该法案进行了猛烈抨击。
在一封OpenAI寄给加州参议员的信中,OpenAI首席战略官Jason Kwon写道,“人工智能革命才刚刚开始,SB-1047法案将损害人工智能行业的创新。如果该法案获得通过,可能会对美国的人工智能竞争力和国家安全产生‘广泛而重大’的影响。”
此前,包括“AI教母”李飞飞、前百度首席科学家吴恩达在内的反对派,曾撰长文揭示该法案的不妥之处,掀起了一波“游说狂潮”。
在李飞飞看来,“善意的人工智能法案将损害美国生态系统。人工智能政策制定必须以鼓励创新为前提,设置适当的限制。不这样做的政策在最好的情况下无法实现其目标,在最坏的情况下会导致意想不到的严重后果。”
她提到,该法案对开源社区将造成毁灭性影响。
“每个AI开发者(尤其是初出茅庐的开发者和企业家)都无法预知模型的所有用途,法案对开发者过度追责将迫使开发者退缩并采取防御措施——这正是需要避免的。”李飞飞说。
吴恩达更是直接指责法案“愚蠢”,他认为应监管人工智能应用而不是技术。
他表示,“加州是许多人工智能创新的发源地,其他司法管辖区经常效仿加州,如果他们在这种情况下这样做,那将是可怕的。”
当然,该法案的支持者也不在少数。
除了前文提到的马斯克,“AI教父”杰弗里·辛顿、2018年图灵奖得主约书亚·本吉奥等人共同签署了一封致加州州长的信支持该法案通过。
信中说,“废除这项法案的基本措施将是一个历史性的错误,在一年内,当下一代更强大的人工智能系统发布时,这个错误将变得更加明显。”
本吉奥担心,科技公司在争夺市场份额和利润最大化的过程中,无法独自解决重大安全风险,因此需要制定一些规则来约束这些公司。
不难看出,大佬们对于该法案的争执点与AI热潮刚掀起时出现的“暂停巨型AI开发”公开信有相似之处:一方认为监管不应成为创新的“抑制剂”,另一方则担忧AI所带来的安全问题。
在马斯克站队后,有网友对其观点表示称赞,认为其还是把安全考虑在第一位,是正确的决定。
也有人提出疑问,“xAI自研的Grok大模型无疑也在监管范围内,如果该法案得到通过,xAI不也捞不到什么好处么?”
截至发稿,马斯克并未过多解释支持法案的具体原因。
究竟马斯克是真的出于安全考虑支持法案,还是想借此为自家大模型争取更多的技术追赶时间,目前不得而知。