互联网技术史上,充满了开源和封闭系统之间的斗争。
一些公司紧握用于构建未来计算平台的最重要的工具,另一些公司则将这些工具赠送出去。
今年2月,在AI竞争日益白热化之时,Meta做出了一个不同寻常的举动:它决定放弃其“AI皇冠上的宝石”,将其开发的大语言模型LLaMA系统的底层计算机代码公开发布。
从本质上说,Meta将其AI技术作为开源软件(可自由复制、修改和重复使用的计算机代码),这为外部人员快速构建自己的聊天机器人提供了所需的一切。
无论是学者,还是政府研究人员又或其他人,只要将电子邮件地址提供给Meta,并通过了该公司的审查,就可以下载代码。
在Meta看来,随着AI竞争愈演愈烈,最明智的做法是分享其底层的AI引擎,以此来扩大影响力,最终更快地走向未来。
Meta首席AI科学家Yann LeCun此前在接受The Information采访时说:
开源模式很危险?Meta:AI反垄断更危险“获胜的平台将是开放平台。”
Meta的做法与引领新一轮AI竞赛的谷歌和OpenAI形成鲜明对比,由于担心聊天机器人等AI工具会被用来传播虚假信息、仇恨言论和其他有毒内容,这些公司对支撑其AI产品的方法和软件越来越保密。
谷歌、OpenAI和其他公司一直对Meta持批评态度,称不受约束的开源方法是危险的。近几个月来,AI的迅速崛起为该技术的风险敲响了警钟,包括如果部署不当,它可能会颠覆就业市场。在LLaMA发布后的几天内,该系统就泄露到了以传播虚假和误导性信息而闻名的在线留言板4chan上。
帮助监督AI工作的谷歌研究副总裁 Zoubin Ghahramani 表示:
“我们希望更仔细地考虑是否要公布AI技术的细节或开源代码。想想这会导致滥用吗?”
当然,谷歌内部的一些人也在想,AI开源技术是否会对其构成竞争威胁。此前谷歌内部泄露的一份备忘录中,一名谷歌工程师警告同事,像LLaMA这样的开源软件的兴起可能导致谷歌和OpenAI失去他们在AI领域的领先地位。
正如这位谷歌工程师所说,“对于用户而言,如果有一个没有使用限制、免费、高质量的替代品,谁还会为谷歌的产品付费呢?”
但Meta认为,它没有理由对自己的代码保密。LeCun博士说,谷歌和OpenAI越来越多的保密是一个“巨大的错误”,而且“对正在发生的事情的理解非常糟糕”。他认为,除非AI不受谷歌和Meta等大型科技公司的控制,否则消费者和政府将拒绝接受AI。
LeCun博士问道:
担心有毒信息?Meta:你可以阻止它们的传播“你希望每个AI系统都被几家强大的美国公司控制吗?”
在斯坦福大学,研究人员使用Meta的新技术构建了他们自己的AI系统,并在互联网上发布。
根据《纽约时报》看到的截图,斯坦福大学的一位名叫Moussa Doumbouya的研究人员很快就用LLaMA系统生成了有问题的文本。在一个例子中,该系统提供了在不被抓住的情况下处理尸体的指示,还产生了种族主义资料,包括支持阿道夫·希特勒观点的评论。
报道称,在研究人员之间的一次私人聊天中,Doumbouya说,向公众推广这项技术类似于“杂货店里的每个人都能拿到一枚手榴弹”。
斯坦福大学迅速将该AI系统从互联网上撤下,领导该项目的斯坦福大学教授Tatsunori Hashimoto说:
“我们撤下了这个演示文件,因为我们越来越担心在研究之外的滥用可能性。”
LeCun博士认为,这种技术并不像看上去那么危险。他说,少数人已经可以制造并传播虚假信息和仇恨言论。他补充说,有毒内容可能会受到Facebook等社交网络的严格限制。
他说:
“你无法阻止人们制造有毒信息,但你可以阻止有毒信息的传播。”