当前位置:首页|资讯|OpenAI

新火种AI|OpenAI神秘新模型Q*被曝光!据说太过强大可能毁灭人类

作者:新火种发布时间:2023-12-05

原标题:新火种AI|OpenAI神秘新模型Q*被曝光!据说太过强大可能毁灭人类

作者:小岩

编辑:白云朵朵

正所谓一波未平,一波又起。

OpenAI的宫斗大戏在历经几次反转后终于落下帷幕。就在看客们认为OpenAI终于要偃旗息鼓,回归平静时,新的一场风波迫不及待的开始了。

根据路透社曝光,就在Sam Altman被解雇之前,几位研究人员曾给董事会寄出一封警告信。这封警告信的内容,很可能是引起整个事件的真正导火索。警告信中表示,内部名为Q*(发音为的Q Star)的下一代AI模型,发展的过于强大过于先进,到底有多强大和先进呢?大概是到了可以威胁人类的地步。

而Q*的主导人,正是OpenAI的首席科学家Ilya Sutskeve,也是其宫斗大戏中,始终处于风口浪尖上的人物。

大家很自然的就把这一切与OpenAI前几天的“兵变”串联在了一起,不禁发现,这是一场分外精彩的大戏。

新模型Q*,究竟是什么?

截至目前,OpenAI官方还没有关于Q*的详细信息,我们先尝试根据网上的信息,拼凑了解一下,究竟什么是Q*。

Q*,也叫Q Star。需要说明的是,虽然在深度学习的领域,区块之间通过乘积来求解,但在Q*这里并非如此,它只是代表“star”。

在AI领域,与Q相关的,本质上都是Q学习(Q Learning)。Q学习这一基本概念最早诞生于1989年。2013年,DeepMind曾经通过改进Q学习的方式,推出过一个叫做深度Q学习的算法。深度Q学习最鲜明的特点就是使用经历回放,即从过去多个结果中进行采样,再使用Q学习,进而达到提高模型的稳定性的作用,降低模型因为某一次结果导致训练方向过于发散的风险。

一直以来,Q学习的研究都没有太突出的成果,所以这个概念相对小众。但Q学习起到了一个极其重要的作用——开发出了DQN。DQN是指深度Q网络,诞生于深度Q学习。DQN的思路和Q学习是一模一样的,但是在求得Q学习中最大奖励值的过程,是用神经网络来实现的。这一下子就显得与众不同了。

以上我们所解释的是“Q”代表的含义,那其中的“*”又意味着什么呢?

由于OpenAI没有官方解释,大家只能对此进行推测。但很多业内专业人士认为,“*”代表的是A*算法。所谓A*算法的运行原理,是先通过启发式算法(也就是估值),估算一个大概的值,当然这个值很有可能极其偏离正解。估算完成后就会开始循环遍历,如果怎么都没办法求解那就重新估值,直到开始出现解。如此反复,最终得出最佳解。这种算法耗时较长,只能在实验室环境进行操作。

通过以上的说明,想必大家对“Q”和“*”都有了初步的了解。根据AI圈的共识,OpenAI的Q*最有可能的样子,就是利用Q学习快速找到接近最优解的估值,再利用A*算法在小范围内求解,从而省去大量没有意义的计算过程,以此达到快速求得最佳解的效果。

出其不意的Q*,是否会过于强大,威胁人类?

对于出其不意的Q*,大家关注的点基本一致:它的研发进行到哪一步了?是否会威胁到人类?

之所以有这样的担忧,是因为大家把Q*的推出与Sam Altman此前在APEC峰会上的发言联系在了一起。彼时,Altman表示,“OpenAI历史上已经有过4次,最近1次就是在过去几周,当我们推开无知之幕并抵达探索发现的前沿时,我就在房间里,这是职业生涯中的最高荣誉”。很多人认为,“最近的一次”,指的就是Q*。

而Ilya Sutskeve,也曾在几周前的一次采访中表示,“不谈太多细节,只想说数据限制是可以被克服,进步仍可以继续”。

通过以上的信息,有人分析Q*目前至少具备两个核心特性。一是突破了人类数据的限制,可以自己生产海量数据;二是拥有了自主学习和自我改进的能力。特别是第2点,被认为很有可能对人类造成威胁。

但对此,一些业内专业人士给予了不同的意见。Meta首席人工智能科学家杨立坤(Yann LeCun)就认为,Q*是OpenAI的一次规划性尝试,并不意味着它已经取得了某些突破。诸如FAIR,DeepMind,OpenAI一类的顶级实验室其实早早就对此有了研究。这不是什么新鲜的新闻,这看上去更像是在炒冷饭。

由此我们不难发现,相较于Q*目前取得的进展,此次事件所带给OpenAI的舆情影响力,似乎更大。

“人工智能是否会对人类构成生存风险”——这个问题始终值得警惕。

对于炒作和八卦,我们大可以一笑置之,但严峻的现实不容忽虑:不定期出现的炒作会让大家降低对AI的警惕心理,会分散人们对AI可能造成的,AI已经造成的问题的注意力。

AI是否会对人类构成生存风险,这将是一把始终悬在人类头顶的达摩克利斯之剑。不仅OpenAI这一类的专业公司需要警惕“人工智能暴动”,全人类都应该对此保持清醒。譬如OpenAI 的董事会设计了“内部终止开关和治理机制”,以防止推出有害技术。再比如欧盟即将敲定全面的《人工智能法案》。目前立法者之间最大的争论之一是,是否要赋予科技公司更多的权力,让它们自行监管尖端的人工智能模型。

一旦我们允许AI系统设定自己的目标,并开始以某种方式与真实的物理或数字世界对接,很可能会出现安全问题。炒作永远都不会缺席,商业性质的公司永远会将“优先考虑自身利益”作为首要目标。在这种情况下,我们更需要拥有透过现象看本质的能力,了解AI,重视AI,警惕AI。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1