当前位置:首页|资讯|OpenAI|阿尔特曼

硅谷AI“老兵”看OpenAI内斗

作者:第一财经发布时间:2023-11-21

硅谷AI“老兵”看OpenAI内斗

备受全球瞩目的科技新贵突遭“逼宫”,炙手可热的新兴科技公司上演员工联署威胁集体出走,这是山姆·奥尔特曼(Sam Altman)及其创办的OpenAI过去数日经历的大戏剧情。

OpenAI地震的核心问题是什么?未来事态发展还有哪些可能性?对人类社会来说AI到底意味着什么?有怎样的风险?

AI训练数据服务公司澳鹏 (Appen)软件工程副总裁雷鸣在北美科技大厂拥有二十多年数据和机器学习工作经历,曾任谷歌广告机器学习系统技术负责人、Meta主任工程师,也曾在此次事件中扮演关键角色的微软担任过主任工程师等职务,是名副其实的AI“老兵”。他在美国西雅图接受第一财经记者视频专访时称,这次问题的核心是管理层在通用人工智能(AGI)发展速度上的分歧。

同时,他认为AGI对人类构成的威胁巨大,AGI与过去的自动化存在本质上的不同。他认为应该首先想明白如何规范AI再做进一步发展,但他担心:“我们现在根本不知道如何制定相关法律,来规范AI的研发、部署和使用。”

此外,他还强调,去中心化和允许竞争可以降低风险。

第一财经:你怎么看这次OpenAI公司地震?核心问题是什么?

雷鸣:我现在特别感兴趣的是,此事的本质矛盾是否在于通用人工智能(Artificial General Intelligence,AGI)的风险?OpenAI是否已经站在了AGI的门槛上?OpenAI董事会部分人士认为AGI存在危险,希望研发更加谨慎、安全为重,即使不停下,至少要减速,但另一派不愿放慢脚步,以奥尔特曼和布罗克曼(Greg Brockman)为主的管理层,采取更加激进的商业行为,这是形成冲突的核心。

此次颇具戏剧性的“政变”不难看出,公司董事会部分成员不惜一切代价,即使冒着拆散公司的风险都要放慢AGI推进速度,尤其是商业化速度。而我本人也支持减速,应该首先想明白如何规范再做进一步发展,不过现实是,我们知道模型的数学结构、算法,并准备相应的训练数据,但我们并不清楚模型到底是如何产生某些结果的,尤其是那些反映人类水平的推理和规划的结果,鉴于此,我们现在根本不知道如何制定相关法律,来规范AI的研发、部署和使用。

第一财经:未来事态发展有哪些可能性?

雷鸣:我认为仍有三种可能的方向:一是奥尔特曼回归OpenAI,官复原职;二是他另起炉灶,成立一家新公司与OpenAI抗衡;三是此番波折之后,OpenAI的很多员工将分散到不同科技公司。

尽管微软CEO纳德拉(Satya Nadella)抛出橄榄枝,称奥尔特曼和布罗克曼将与其他一些同事一起加入微软,领导一个新的高级人工智能研究团队。不过,在传统上,硅谷工程师对于总部位于西雅图的微软和亚马逊并不是特别感冒,因为硅谷和西雅图两地的文化和节奏还是有些差别,何况硅谷有很多大型科技公司,虎视眈眈盯着这些人才,所以一定会出现抢人大战。

第一财经:应该怎样理解“营利派”与“非营利派”?

雷鸣:美国企业有营利与非营利组织之分,前者的主要目的是最大化商业利益,微软就属于这一类企业,而OpenAI宣称是非营利组织,理论上来说,其主要目标并非商业利益最大化,因此两者之间利益上并不一致。

OpenAI于今年10月修改了其“核心价值观”,更加强调AGI的发展,并不意图通过AGI来实现利润。不过,若是依赖微软这类大公司来做非营利组织该做的事情,我觉得也有一些不太实际,非营利组织的持续运营固然需要资金,但我认为资金来源并不是一个很大的问题,例如盖茨基金会、大学基金会等许多非营利组织拥有充足的资金支持开支。

第一财经:你怎么看当前AGI领域的竞争?

雷鸣:行业竞争至关重要,通过立法限制垄断,这一点是可以做到的。比如整个上世纪90年代,美国政府一直在限制微软,才有了谷歌等许多互联网公司之后的陆续诞生。我认为,去中心化和允许竞争可以降低风险,如果我们有很多不同的生成式AI技术提供方,即便其中一个出现问题,还有其他选择,不至于全人类都因此受到影响。

第一财经:有一些分析称,奥尔特曼有意加速AGI商业化,这与坚持AI安全的科学家产生分歧,故引发此次“宫斗”大戏,业界对于商业化和AI伦理的关系持何种看法?相关风险如何影响未来AI的发展?

雷鸣我认为AGI对人类构成的威胁巨大,AGI与过去的自动化存在本质上的不同,AI能够深度学习,且对人类的替代是全方位的。其实现在你就能够看出来,很多行业,尤其是白领行业存在潜在的生产力冲击(Productivity Shock),我不是说生成式AI可以完全替代人类,但其可以提高一倍甚至两三倍的效能,意味着就业人数可能大幅减少,而企业发展速度可能还会提升,这就对劳动力市场造成冲击。

另一方面,奥尔特曼本人在5月出席国会听证会时明确表示,生成式AI非常具有说服力,可以创建令人信服的内容,影响人们的观点和行为,甚至制造虚假新闻、宣传,他还表示,生成式AI存在操纵和欺骗的风险,敦促立法者制定法规,确保以道德和负责任的方式使用生成式AI,促进其对社会的积极潜力。不过,即便人类不被生成式AI所操纵,也很有可能被其背后的控制者所操纵,这将对人类社会构成一些威胁。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1