当前位置:首页|资讯|OpenAI

内乱前夕,OpenAI研究人员致信董事会,警告AI重大突破或危及人类

作者:华尔街见闻发布时间:2023-11-24

原标题:内乱前夕,OpenAI研究人员致信董事会,警告AI重大突破或危及人类

OpenAI“宫斗”大结局后,Altman“被离职”的原因流出,竟然是因为一封信?

据知情人士向路透社透露,几名研究人员在Altman离职的四天前(当地时间上周一)向董事会发出了一封信,表示一项新发现可能威胁人类。媒体猜测,这封信成为OpenA此次“宫斗”大戏的导火索。

知情人士透露:微软CEO Satya Nadella周三告诉员工,这封有关AI模型Q*实现突破的信件促使董事会采取了行动

报道发出后,马斯克在X平台对路透社该篇报道置评:极度令人担忧

Altman在上周四曾公开透露过这项技术进展。据知情人士向媒体透露,这项技术由OpenAI前首席科学家Ilya Sutskever牵头,和使用计算机生成的数据来帮助训练模型有关,而此前大模型训练的数据大多源于网络个人数据。

媒体还报道称,OpenAI两位高级研究人员Jakub Pachocki 和 Szymon Sidor在该技术基础上构建了模型“Q*”(发音为 Q-Star),该模型能够解决此前从未见过的数学问题。一些内部人士向媒体透露,这或将为OpenAI实现超级智能(即通用人工智能AGI)寻求突破提供可能性。

在上周提及这项技术时,Altman称其能够“揭开未知的面纱,推动发展的前沿”。

不过,还有媒体出面佐证这封信直接导致OpenAI内乱,论据有二:首先是Sutskever对该技术持保留态度,领头参与了这次高调罢免Altman的风波。作为AI保守派,在今年7月时,Sutskever就组建了一个团队,致力于限制AI潜在的安全威胁。

其次是,在Altman离开后,高级研究员Szymon Sidor、Jakob Pachocki和总裁Greg Brockman相继辞职的事实也证实了双方在商业化和安全性方面的观念分歧。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1