Meta首席科学家杨立昆(Yann LeCun)是AI威胁论的反对者,但同时他也是AI乐观派如英伟达首席执行官黄仁勋的反对者。如最近他公开批评了超级人工智能(AI)将在五年内赶超人类等观点。杨立昆于今年的AI舆论战场上几乎挑战了大多数意见领袖。
最近,在Meta AI实验室成立十周年之际,他接受了《福布斯》的独家采访,并回顾了人工智能的发展历程。在这期间,这家科技巨头推出了多个AI新产品,可用于生成音频、研究视频和检测语言模型中的偏见。
原标题:《Meta AI首席科学家杨立昆谈及他的开源使命和ChatGPT带来的“惊吓”》
文|Richard Nieva
Meta首席科学家杨立昆(Yann LeCun)还记得,去年11月,OpenAI发布ChatGPT时他的反应。当时OpenAI只是个名不见经传的竞争对手,但该公司发布的这款聊天机器人可以生成求职信、笑话、剧本等几乎所有类型的文本,从而让人工智能进入了主流视野,在硅谷也引发了新一轮研发热潮。
对杨立昆来说,他的震惊并不来自这项技术本身。早在十年前,Meta就创立了Meta AI研究实验室,多年来一直在研究大型语言模型,也就是ChatGPT的基础技术。就在OpenAI发布ChatGPT的几周前,Meta也刚发布了一个类似的聊天机器人Galactica,专门用于撰写科学论文。但就在ChatGPT被视为“救世主的二次降临”(杨立昆接受《福布斯》采访时如此描述)之际,Meta的这款软件却在X(原Twitter)上遭到了广泛的批评,这让他感到有些不解和恼火。
“令我惊讶的是,如果你把这个工具提供给人们,而它不是来自一家大型科技公司,那么人们就会被它打动,并开始使用它,”杨立昆说。“它对公众领域和公众看法造成的影响对每个人而言都是意料之外的,对OpenAI来说也是如此。”
在Meta工作时,大公司的这种包袱可能带来一些职业危险。多年来,Meta一直备受争议——干预选举进程、提供虚假信息、危害青少年健康,所有这些丑闻都使Meta成为了华盛顿政治家和监管机构的攻击目标,也削弱了许多用户对该平台的信任。这是否也影响了公众对Meta的研发部门的看法呢?
“不,我想——我的意思是——确实会有影响,”杨立昆在一通转折之后承认了这一点。“Meta正在慢慢从形象问题中恢复,”他笑着说。“情况正在好转,但负面态度肯定存在。”
无论如何,ChatGPT引发了人工智能竞赛,也开启了Meta的FAIR实验室的新时代。2013年,该实验室作为Facebook AI Research成立(两年前,Facebook更名为Meta,“F”的意义也改为了“Fundamental”,即基础的),旨在实现人工智能领域的基础科学突破。十年过去了,随着人工智能成为了行业内最热门的技术,Meta成为了全球最强大公司之一,该实验室也成了该公司最重要的部门之一。
杨立昆表示,去年,Meta一直将AI用作新产品的“核心”,而不仅仅是在幕后提供支持。虽然该实验室早期的工作集中于图像识别等任务,但生成式AI的蓬勃发展使其研究方向有所倾斜。今年二月,Meta发布了大语言模型LLaMA,旨在与OpenAI的GPT抗衡。该模型迄今已被Shopify和DoorDash等公司用于支持AI工具。在此过程中,FAIR成为开源研究的坚决支持者。关于人工智能安全和开放合作带来的进步之间的权衡,业内一直存在激烈的争论。如果一切按计划进行,Meta将会有更多产品问世,尤其是元宇宙,这是Meta首席执行官马克·扎克伯格(Mark Zuckerberg)花费数十亿美元、以公司为赌注的重要投资。
Meta的AI研究副总裁乔尔•皮诺(Joelle Pineau)表示,“有很多证据表明,元宇宙是终极的、沉浸式的、生成式的体验,”她还描述了多个由AI生成的数字角色组成的世界,角色之间的对话由LLM大语言模型创建,而沉浸式环境则由AI制作的动画设计提供。
这也是扎克伯格一再宣传的未来图景。不过,这位Meta的首席执行官表示,这可能是十年之后才会发生的事。在当下,元宇宙收获了无情地嘲笑、挽歌,又或是已被宣告失败。皮诺提到,即使这样,扎克伯格仍然坚信这一长期愿景,因为他看到了AI的潜力。
一个重要的信号
2013年12月,扎克伯格和Facebook前首席技术官迈克·施罗普夫(Mike Schroepfer)启动了FAIR项目,并聘请纽约大学计算机科学教授杨立昆领导该项目。杨立昆在启动仪式上写道,新实验室有一个雄心勃勃的长期目标,即实现AI的重大进步。扎克伯格和施罗普夫当时已经看到了人工智能的潜力,这归功于AlexNet这一最新突破。AlexNet是一款开创性神经网络架构,由计算机科学家亚历克斯·克里热夫斯基(Alex Krizhevsky)设计,可用于图像识别和分类。
早期,在Facebook总部16号楼,公司的人工智能团队就在扎克伯格的办公室旁边工作。“这样的座位安排不是偶然的,”于2022年卸任首席技术官的施罗普夫这样告诉《福布斯》,“这表明人工智能对公司未来的重要性。”(FAIR的其他分支机构分别位于纽约、蒙特利尔、特拉维夫和伦敦。)
多年来,FAIR取得了许多进步。2016年,FAIR发布的机器学习框架PyTorch帮助开发人员构建生成式AI模型。还有名为FastMRI的技术,顾名思义,利用AI将核磁共振成像(MRI)分辨率提高10倍。另一个名为“Few-Shot Learner”的系统,旨在消除Facebook上有害的内容,比如疫苗虚假信息,并将处理时间从几个月缩短到几个星期。
FAIR最引人注目的项目之一是其早期的聊天机器人项目M。2015年8月,Facebook面向加利福尼亚州的约2000人隆重发布了这项独家服务。它被宣传为一个神奇助手,几乎可以为你执行任何任务,比如为你的母亲订花或预订餐厅。
这款软件在当时看起来几乎好用到不像真的,但那是因为它确实如此。Facebook 的人工智能算法的确处理了少量的用户问题,但绝大多数任务都是由人类承包商以模拟方式完成的——例如打电话给花店送花,或者手动访问餐厅网站预订座位。“人们通常认为,(这款软件)大概能完成人们80%的需求,最后的20%才真正需要付费,”杨立昆告诉《福布斯》,“但事实并非如此,实际的情况比这更糟。”
Facebook表示,M的目标是进行一项复杂的实验,探究人们会向聊天机器人提出什么请求。不过,该公司在2018年正式终止了该项目,而且在ChatGPT的时代,这个项目听起来显得有些过时。
施罗普夫表示,M是研究与产品构建交叉的早期例子,这是该实验室一开始就强调的重点。他还补充说,作为首席技术官,他没有部署更多的GPU芯片来训练数据,这是他在人工智能领域最大的遗憾。
在周四的十周年活动上,FAIR将聚焦于新产品和工具,比如Audiobox,它允许用户在系统中输入语音或文本提示,并根据用户的语音偏好创建相应的声音片段(比如:声音深沉但略显慌乱)。该公司还推出了一套新的语言翻译模型套件,名为Seamless,其中包括一款模型,可以在翻译时保留人的语调、节奏和音量。
FAIR还发布了一个新的开源视频数据集,其中包含从不同视角拍摄的视频。这些数据的一个应用领域可能是创建包含多个视角的AI操作视频。该项目是Meta与卡内基梅隆大学、宾夕法尼亚大学等多所大学合作的结果。
该公司最后发布了一款名为ROBBIE的工具,用于帮助检测生成式语言模型中的偏见——这也是其他研究人员和学术界广泛关注的问题。该工具比较了来自五个不同大语言模型的AI生成的答案,并在种族、体型和政治意识形态等类别中寻找偏见。研究人员在一篇论文中写道,这样做的目的是让开发人员通过这个工具衡量大语言模型的潜在危害,并“做出权衡”。
内部不正当行为
二月份,FAIR进行了一次大规模发布,推出了LLaMA,这是一个强大的语言模型,旨在与OpenAI的GPT、Google的LaMDA和PaLM等模型抗衡。但与这些竞争对手不同,LLaMA 2,即该模型的第二代,是开源的。这一决定源自扎克伯格,杨立昆表示,这是经过一场“激烈的内部辩论”后做出的决定。
这一决定令Meta和FAIR成为开源研究的有力支持者,即公司发布其代码,并提供给用户和外部研究人员。“我们的框架是,在启动每个项目时都考虑开源,”皮诺说。“如果持续封锁,闭门造车,公司内部很容易留藏不正当行为。”虽然开源是FAIR的一个重要原则,但她补充说,这不是“绝对原则”,公司会根据项目的实际情况决定采用的方法。例如,Meta的新Audiobox模型只对申请使用的研究人员开源,名额有限。
在科技行业,关于开源的讨论变得激烈。一方面,像Meta、Hugging Face和Mistral这样的公司倡导透明度,以促进科学合作和进步,并防止黑箱问题出现。另一方面,还有一些公司,如OpenAI(尽管该公司名字中有“开放”一词)和Google的DeepMind,支持封闭系统,他们的观点是封闭可以减轻安全风险,防止不法分子滥用获得的代码。例如,白宫曾提出警告,开源AI模型可能助长合成生物学,从而引发下一轮疫情。OpenAI上个月发生了惊心动魄的董事会变动,在五天的风云变幻中,其首席执行官山姆·阿尔特曼(Sam Altman)被撤职然后又恢复职务,部分原因就是OpenAI首席科学家伊尔亚·苏茨克维(Ilya Sutskever)提出的安全担忧。
康纳·利希(Connor Leahy)是伦敦人工智能安全初创公司Conjecture的首席执行官,他认为Meta是最不负责任的人工智能参与者,因为该公司采取的方法过于开放。“我们应该令核武器的设计透明化吗?”他说。
不过,杨立昆对此类批评不以为然。他说:“我们现在所掌握的系统仍然非常原始,因此,开源所带来的好处远远超过与之相关的风险。”
相比之下,谷歌的DeepMind在代码和研究方面则更为保守。杨立昆在X上与DeepMind创始人戴密斯·哈萨比斯(Demis Hassabis)就此问题进行了一轮针锋相对的对话,指责后者在呼吁人工智能监管时“制造恐惧”。哈萨比斯则反驳了杨立昆,称公司需要在系统变得危险之前管理风险。当被问及对DeepMind的策略的看法时,杨立昆坚持己见,称“他们变得越来越不开放了。”此前,就在谷歌将DeepMind实验室更紧密地整合到公司的其他部门,该部门也遇到过这样的批评。“我认为这将减缓整个领域的进展,所以我对此不太高兴。”
尽管FAIR倡导开源,但一些批评者认为Meta只关心自己的商业利益,故意抨击谷歌和OpenAI。在被问及这一看法时,杨立昆干脆地说:“这不可能。”
“这不是我们的动机。我们的动机是,我们想要在这个领域取得进展,我们想要整个研究界都为这一趋势做出贡献。”他说,“可能与某些有优越感的公司不同,我们并不认为自己可以垄断所有优秀的点子。”
谷歌DeepMind实验室的发言人阿曼达·卡尔(Amanda Carl)则为该实验室对开源社区的贡献进行了辩护,并援引了DeepMind的开源基础设施和开发者工具作为例子,包括transformer(LLMs的基础技术)和TensorFlow(一个机器学习平台)。卡尔在一份声明中表示:“我们的开源历史不言自明。”
一位曾与FAIR团队共事的Facebook前员工告诉《福布斯》,对于Meta来说,AI的新前景可能会凸显出一些老问题。“AI只是一个新的框架,在安全、内容节制和福祉方面,同样存在挑战和问题。人们的担忧并没有改变,AI只会继续放大这一切。”为了保护自己在该行业的职业前景,该员工要求匿名。
与此同时,AI在Meta的作用也在不断增强,AI的蓬勃发展也吸引了扎克伯格的注意。“早在10年前,他就非常积极地参与了FAIR的工作,”皮诺说。“但在之后的很多年里,他的参与度降低了很多。现在,他又开始积极参与进来。”
译自
https://www.forbes.com/sites/richardnieva/2023/11/30/meta-ai-yann-lecun-fair-10th-anniversary/?sh=478819f73ee4
福布斯中国独家稿件,未经许可,请勿转载
头图来源:BLOOMBERG