OpenAI的最新AGI布局——5级路线图再被吐槽是营销手段,不仅对「超级智能」命名和定义存在模糊之处,5个级别的层次结构也被诟病「逻辑混乱」?
根据彭博社上周报道,OpenAI全新的AGI路线图释出。公司内部将AI能力划分为5个等级,并认为当前AI正处于其中的L1阶段。
简而言之,这个5级路线图的大致内容是:
第一级:聊天机器人,具有对话语言的人工智能;
第二级:推理者,人类水平的问题解决;
第三级:代理者,可以采取行动的系统;
第四级:创新者,可协助发明的人工智能;
第五级:组织者,可以完成组织工作的人工智能。
OpenAI引入结构化量表来绘制AGI的进展情况,这的确是人工智能领域向前迈出的重要一步。
把通往AGI之路分为五个不同的级别,为衡量AI进步和设定基准提供了清晰的框架。
这5个里程碑,不仅能够让OpenAI跟踪自身进展,还能够树立通用标准,供其他开发人员借鉴参考。
OpenAI称,这种划定方法是面向未来的,为人工智能系统的透明化发展奠定了基础,同时确保迈向AGI的每一步都是可衡量和负责任的。
乍一听,这个「五步走战略」把AGI的未来勾画的清清楚楚,但这份战略报告却引起了许多质疑。
为了从L1迈向L2,OpenAI正在进行一个一个代号为「草莓」(Strawberry)的项目中,主要目的是使模型能够提供高级推理能力。
老对家马斯克也是密切关注,第一时间赶来嘲讽。
其实,早在OpenAI发布Sora时,官方的技术博客将Sora描述为「世界模拟器」,就引起了许多人的吐槽和互喷。
目前几乎所有的LLM仍是「大力出奇迹」的产物,烧钱堆算力,很大程度上都是知其然而不知其所以然。
Facebook首席人工智能科学家Yann LeCun就认为LLM不具备像人类一样的推理能力。
他的经典名言是「人工智能可能还不如你家的猫聪明」。他预测,当前的人工智能系统距离达到某种人类的感知能力还需要几十年的时间。
而且,人工智能神经网络的设计初衷就是想要模拟人类神经网络,但人脑结构和功能的探索尚且处于初级阶段,这难道不是在黑匣子里开盲盒?
也有网友表示,这可能是OpenAI给投资商画的饼,我们离AGI就差4步哦,听上去的确让人心潮澎湃。
还有一些批评的声音集中在OpenAI对超级人工智能的定义上。
超级人工智能(ASI)的概念本身就存在争议,因为它没有明确的、被广泛接受的定义。
简单地将某个等级定义为超级人工智能可能引发误解,使人们对AI的能力和潜在影响产生不切实际的期望或担忧。
有网友指出,5级路线图的定义和分类就并不准确,甚至具有误导性。
首先,考虑到OpenAI一直标榜自己的目标是「超越人类」的ASI,那就至少应该在更高级别上讨论「智能」,而不是仅仅是停留在「人类级别」这种描述。
根据Nick Bostrom公认的定义(虽然并不完美),超级智能是「在许多非常普遍的认知领域,远远优于当前人类最优秀思维的智能」,包括科学创造力、一般智慧和社交技能。
哲学家Nick Bostrom撰写的《超级智能:路径、危险、策略》,出版于2014年
在速度方面,Bostrom对超级智能的定义是「一种与人类思维相似但速度更快的智能」。
这大致对应路线图中的L2等级,也就是OpenAI宣称他们「即将实现」的水平。
想想看,「有基本的问题解决技能且接受过博士级别教育」的AI系统,即使不借助外界工具,思维速度也肯定可以超过人类平均水平。
更何况,L2所描述的是一个有超人类记忆能力和多领域专业知识的AI,推理速度达到「超人类」就更不在话下。
Reddit上也有网友表达了类似的观点。
要知道,发达国家中拥有博士学位的人不到2%,所以GPT-5很可能具有比95%的人类更强的推理能力。我猜这可以用来替代相当数量的人类劳动。
L3对许多人来说就是通用人工智能(AGI),L5则是超级人工智能(ASI)了
此外,关于L4的定义:「具有创新能力的AI,可以提出人类没有的创意」,听起来已经是一种高质量的超级智能。
L5则被称为「组织」,可能是指用多部件的、由AI控制的系统来取代整个人类组织,也就是Bostrom所说的「通过聚合大量较小的智能来实现卓越性能的系统」。
这又回到了「取代人类」而非「超越人类」的层面。他们仅仅是把「超级智能」定义为与人类或人类组织有同等能力的系统,而不是远远超过。
因此,5个级别不仅命名错误,而且从根本上混淆了「超级智能」的概念。
这些不能称之为通往AGI的5大级别,它们在概念上仅仅是可行的AI应用、技术路径或结果。
说完了概念和定义上的混淆,我们再来看看,这样安排5个等级的顺序是否合理?
根据OpenAI自己的表述,这5种「级别」或「阶段」可以用于跟踪AGI的进展。
这不仅表明,OpenAI清楚地了解每个不同阶段的要求,而且还指明路线图,各个级别的AI将按从L1到L5的指定顺序实现。
这两个方面似乎都令人难以置信。至少,按照人类能力的发展程度,这种顺序就是不合理的。
例如,肯定存在一些人类「Agent」无法执行第L2级任务,也就是博士级个人能够独立完成的任务。
但L4级任务:协助人类创新,同样是很多人做不到,但博士水平可以完成的。
那么,为什么一定要把L4放在L2之后?
类似的,根据L5的要求,AI需要发展出协调与合作的能力,才能替代组织。
但这种能力并不是于高智力人才的专利,即使所有成员都没有博士学历,也仍然可以经营杂货店、工厂或出租车公司等各种组织。
而大量的例子也表明,有些高学历的人不具备生活自理能力,更不用说组织管理能力。这就又让L5降到L2之下了。
最明显的漏洞还是关于L3 agent的定义,因为一些独立运作的Agent已经在没有特定监督的情况下执行人类工作了。
目前看来,这些系统运行失败部分是因为底层系统的限制,部分是因为这些系统需要更好的结构,但应该不是受限于AI的智能水平。
因此,现实情况是,OpenAI宣称正在努力实现L2的同时,L3已然存在了。
我们也不清楚人工智能在成功独立工作(L3)之前或之后是否能够有效创新(L4)。
仔细想想,L3、L4和L5之间,其实并没有很清晰严明的次序关系。
因此,我们也不知道GPT-5在发布时,会不会是一个有L5但没有L4的系统,即「无法创新的组织」。
或者是,达到第L3但没有L2的推理能力,即没有博士学位的agent?
还是会有L4但没有L3,即一个无法持续独立工作的创意者?
当然,所有这些反对意见都有可能被OpenAI预判了。
但正如网友所说,他们所谈论的级别似乎更有可能是一种营销技巧,旨在推销他们的系统将是可预测的。
毕竟,资本最喜欢稳定性和可控性。
参考资料:https://www.lesswrong.com/posts/JycQ8dZwAKcgfbWig/misnaming-and-other-issues-with-openai-s-human-level
本文来自微信公众号“新智元”,作者:新智元,36氪经授权发布。