当前位置:首页|资讯|OpenAI|AGI|GPT-4|阿尔特曼

OpenAI机密五级AGI路线图曝光,GPT-4仍处L1,内部AI接近博士水平18个月诞生

作者:新智元发布时间:2024-07-12

OpenAI全新的AGI路线图,刚刚被曝出了!OpenAI将AI划分为5个等级,自称其AI模型正处于L1,但很快就会达到L2(推理者)。而根据其前研究员预测,五级AGI最快将在27年实现。

一张OpenAI内部通往AGI最新路线图,在全网掀起热议。 

从图中明显可以看出,OpenAI将最终抵达AGI终点,划分了五大等级: 

L1:聊天机器人,具有对话能力的AI。

L2:推理者,像人类一样能够解决问题的AI。

L3:智能体,不仅能思考,还可以采取行动的AI系统。

L4:创新者,能够协助发明创造的AI。

L5:组织者,可以完成组织工作的AI。

在OpenAI内部,已经实现哪种程度了?

彭博独家报道,OpenAI一位高管表示,目前正处在第一级别,不过很快会达到第二个级别,即推理者。

所谓推理者,也就是指可以解决博士水平的基本问题的系统。

而L5,就是实现AGI的最后一步,至此,AI将可以执行整个人类组织的工作。

OpenAI CTO曾透露,OpenAI接下来将致力于研究在特定任务上博士级别的智能,也许就在一年或一年半之后实现。

也就是说,我们还有18月的时间,即将看到Level 2的下一代模型。

而目前人人都在说的Agent,处于Level 3的级别,根据OpenAI的说法,他们的AI还差得远。

有网友表示,OpenAI这一划分与DeepMind提出的6大等级,甚至是Anthropic,有异曲同工之妙。

去年11月,DeepMind团队发表的一篇论文「Position: Levels of AGI for Operationalizing Progress on the Path to AGI」中,详细定义了AGI的不同级别。

论文地址:https://arxiv.org/abs/2311.02462

OpenAI之所以提出这五个级别,是为了帮助人们更好地理解它对于安全和AI未来的思考。

毕竟,OpenAI已经被许多人视为构建更强大AI系统军备竞赛的领导者(OpenAI发言人这样表示)。

01 Sam Altman:AGI预计在十年内实现

根据内部人士透露,也是在同一次会议上,OpenAI领导层演示了涉及GPT-4模型的研究项目。 

这个模型展现出了全新的技能,已经可以提升到了类人的推理能力。

不过,他们并不允许向媒体透露更多细节。发言人只是表示,OpenAI一直在内部测试新功能。

多年来,OpenAI一直表示正致力于构建AGI。根据OpenAI的定义,AGI是「在最具经济价值的任务中超越人类的高度自治系统」。

可以肯定,目前全世界尚不存在这样的AI系统。

但全世界的AI大佬们,对于AGI的到来时间十分乐观。

Sam Altman表示,预计AGI在十年内实现。

此外,马斯克、Anthropic联创&CEO Dario Amodei、DeepMind创始人Hassabis,都与他持相同观点。

在这位前OpenAI研究员看来,2027年实现AGI的可能性极大。

长期以来,AI研究者一直在讨论AGI的标准该如何定义,大家耳熟能详的一个,就是上文提到的谷歌DeepMind提出的五级AI框架。

这些排名,都类似于汽车行业中用于评估自动驾驶汽车自动化程度的评价系统。

据悉,目前OpenAI这个排名是由高管制定,目前还在不断完善中。

而OpenAI也会不断收集员工、投资者、董事会等人的反馈,并且可能根据时间的推移对这些级别进行调整。

如何定义AGI,事关OpenAI的公司前程

要知道,OpenAI如何定义AGI很重要,因为OpenAI的独特结构,正是围绕着其实现AGI的使命。

而OpenAI为此可是立下过誓言:「如果一个价值一致、具有安全意识的项目在OpenAI之前接近AGI」,OpenAI将承诺不与该项目竞争,并且尽自己所能协助该项目。

不过,OpenAI在章程中的措辞含糊不清,这就为「什么是营利性实体」的判断留下了空间。

而现在,有了这张通往AGI的全新路线图,OpenAI就可以测试自己和竞争对手处于哪个等级,这样或许就可以以更清晰地方式决定何时实现AGI。

目前我们知道的是,AGI最快也还要三年才实现,而且,可能需要投入价值数十亿美元的算力。

OpenAI内部,到底到哪一步了

而就此路线图传出的前一天,OpenAI曾宣布与洛斯阿拉莫斯国家实验室合作的消息。

此番合作,正是为了探索GPT-4o等先进AI可以如何安全地协助生物科学研究。

洛斯阿拉莫斯国家实验室项目经理透露,合作的目标是测试GPT-4o的功能,并为美国政府建立起一套安全规范。

随后的公共或私有模型都可以根据这套规范,来评估自己模型的安全性。

正是对「安全」这个概念理解上的分歧,导致OpenAI此前的数次人员剧变。 

5月,安全团队负责人、联创Ilya Sutskever出走后,OpenAI解散了安全团队。

另一员大将Jan Leike在一篇帖子中表示「公司的安全文化和流程已经让位于闪亮的产品」,随后愤而辞职。

一个这样的公司,如果真的第一个达到AGI,恐怕不会让人很放心。

02 Level 2是GPT-5吗?

那么,OpenAI高管所说的正接近L2,究竟指的是不是GPT-5?

有网友认为,GPT-5处于他们划分的第二级。即便是达到了人类级别的推理能力,它仍然在某些方面落后于人类。预计在2025-2026年底之前,很可能不会出现完全自主替代人类的智能体。

网友对此表示赞同,「GPT-5预计达到L2,具备博士级别的推理和问题解决能力,这已经接近超人类水平了」。

要知道,发达国家中拥有博士学位的人不到2%,所以GPT-5很可能具有比95%的人类更强的推理能力。我猜这可以用来替代相当数量的人类劳动。

L3对许多人来说就是通用人工智能(AGI),L5则是超级人工智能(ASI)了。

「这似乎证实了关于下一代前沿模型处在博士级的传言」。

另一位网友回应道,这还取决于GPT-4和GPT-5之间的跳跃有多大了。

对我来说,最有趣的一点是,推理能力似乎将独立于基础模型的规模。这很可能是我们都在等待的Q*。

众多网友纷纷一直认为:L3-L4就是AGI。

只不过,L3可能是弱AGI,L4可能是强AGI。

最后,实现L5之后,未来公司的架构是这样的。

参考资料: 

https://x.com/rachelmetz/status/1811488920221503998 

https://www.bloomberg.com/news/articles/2024-07-11/openai-sets-levels-to-track-progress-toward-superintelligent-ai 

https://www.theverge.com/2024/7/11/24196746/heres-how-openai-will-determine-how-powerful-its-ai-systems-are 

本文来自微信公众号“新智元”(ID:AI_era),作者:新智元,36氪经授权发布。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1