当前,Meta 正在全力开发开源人工智能。近日,该公司发布了 Llama 2,这是它的第一个大语言模型,任何人都可以免费使用。
自 2022 年 11 月 OpenAI 发布 ChatGPT 以来,科技公司一直在竞相发布类似的模型,希望推翻其霸主地位,或者至少做到与其旗鼓相当。
但 Meta 一直不紧不慢。2023 年 2 月,当其他竞 争对手相继宣布推出各自的人工智能聊天机器人时,Meta 推出了第一个小版本的 Llama,仅限研究人员使用。但它希望日前发布的 Llama 2 模型,可以让任何人都可以免费在其上构建商业产品,这将有助于它迎头赶上。
事实上,该公司正在发布一系列的人工智能模型,其中包括不同大小的 Llama 2 版本,以及人们可以构建到聊天机器人中的人工智能模型版本,类似于 ChatGPT。
与 ChatGPT 不同的是,该模型必须从 Meta 的发布合作伙伴微软Azure、亚马逊 AWS 和 Hugging Face 下载。
Meta 副总裁艾哈迈德•阿尔达勒(Ahmad Al-Dahle)表示:“这对整个人工智能社区是有利的,让人们可以选择采用闭源方法或开源方法,以满足他们特定的应用需求。”其还表示:“这对我们来说是一个非常非常重要的时刻。”
(来源:STEPHANIE ARNETT/MITTR | GETTY, ENVATO)
但许多问题依然存在。根据《麻省理工科技评论》独家获得的一份研究报告显示,Meta 没有公布用于训练 Llama 2 的数据集的信息,也不能保证其中不包括受版权保护的作品或个人数据。
Llama 2 也存在一些困扰着其他所有大型语言模型的问题:产生虚假事实和攻击性语言的倾向。
阿尔达勒说,他们的想法是通过将模型发布到现实世界中,再让开发人员和公司对其进行改善,从而学到如何使模型变得更安全、偏见更少和更高效的重要经验。
美国斯坦福大学基金会模型研究中心主任 Percy Liang 表示,像 Llama 2 这样强大的开源模型会对 OpenAI 构成相当大的威胁。他是人工智能大模型 Alpaca 背后团队的一员。Alpaca 是开源的,同时也是 GPT-3 的竞争对手(GPT-3 是 OpenAI 大语言模型的早期版本)。
“Llama 2 不是 GPT-4,”Liang 说。Meta 在其研究论文中承认,Llama 2 和 GPT-4 之间在性能上仍有很大差距,GPT-4 是 OpenAI 目前最先进的人工智能语言模型。“但对于许多应用场景来说,你不需要 GPT-4,”他补充道。他说,相较于一个庞大、复杂的专有模型,一个更可定制、更透明的模型比如 Llama 2,可能会帮助公司更快地创造产品和服务。
“让 Llama 2 成为 OpenAI 的主要开源替代品,将是 Meta 的巨大胜利,”美国加州大学伯克利分校教授史蒂夫·韦伯(Steve Weber)说。
阿尔达勒表示,让 Llama 2 上线需要进行大量调整,以使该模型比其前身更安全,以及生成有毒和虚假内容的概率更低。
Meta 曾经出现过很多失误,这是它需要吸取教训的地方。它的科学语言模型 Galactica 仅在三天后就下线了,而它之前的 Llama 模型(仅用于研究目的)被泄露到网上,引发了政界人士的批评。人们质疑 Meta 是否适当考虑了与人工智能语言模型相关的风险,比如虚假信息和骚扰。
为了降低重蹈覆辙的风险,Meta 应用了不同的机器学习技术,旨在提高其价值和安全性。
Hugging Face 的研究员萨沙•卢奇奥尼(Sasha Luccioni)表示,Meta 训练 Llama 2 的方法比生成式人工智能模型的常规步骤要多。
该模型比之前的模型多训练了 40% 的数据。据介绍,训练数据有两种来源:一种是网络上抓取的数据,另一种是根据人类注释者的反馈进行微调和调整的数据集,以达到更理想的效果。Meta 表示,它没有在 Llama 2 中使用自家用户的数据,并且排除了那些已知的、包含大量个人信息的网站。
尽管如此,Llama 2 仍然像竞争对手一样,会吐出具有攻击性、有害的和有其他问题的内容。Meta 表示,它没有从数据集中删除有害数据,因为保留这些数据可能有助于 Llama 2 更好地检测仇恨言论,而删除这些数据可能会存在意外过滤掉一些风险。
尽管如此,卢奇奥尼表示 Meta 对于开放性的承诺令人兴奋,因为它允许像她这样的研究人员,正确地研究人工智能模型的偏见、伦理和效率。
Llama 2 是一个开源模型,这将允许外部研究人员和开发人员寻找其安全漏洞,从而让其比专有模型更安全。
Liang 表示同意。他说:“我很高兴能尝试这些新东西,我认为这将对(开发者)社区带来益处。”
支持:Ren