OpenAI全新的AGI路线图,刚刚被曝出了!OpenAI将AI划分为5个等级,自称其AI模型正处于L1,但很快就会达到L2(推理者)。而根据其前研究员预测,五级AGI最快将在27年实现。
一张OpenAI内部通往AGI最新路线图,在全网掀起热议。
从图中明显可以看出,OpenAI将最终抵达AGI终点,划分了五大等级:
L1:聊天机器人,具有对话能力的AI。
L2:推理者,像人类一样能够解决问题的AI。
L3:智能体,不仅能思考,还可以采取行动的AI系统。
L4:创新者,能够协助发明创造的AI。
L5:组织者,可以完成组织工作的AI。
在OpenAI内部,已经实现哪种程度了?
彭博独家报道,OpenAI一位高管表示,目前正处在第一级别,不过很快会达到第二个级别,即推理者。
所谓推理者,也就是指可以解决博士水平的基本问题的系统。
而L5,就是实现AGI的最后一步,至此,AI将可以执行整个人类组织的工作。
OpenAI CTO曾透露,OpenAI接下来将致力于研究在特定任务上博士级别的智能,也许就在一年或一年半之后实现。
也就是说,我们还有18月的时间,即将看到Level 2的下一代模型。
而目前人人都在说的Agent,处于Level 3的级别,根据OpenAI的说法,他们的AI还差得远。
有网友表示,OpenAI这一划分与DeepMind提出的6大等级,甚至是Anthropic,有异曲同工之妙。
去年11月,DeepMind团队发表的一篇论文「Position: Levels of AGI for Operationalizing Progress on the Path to AGI」中,详细定义了AGI的不同级别。
论文地址:https://arxiv.org/abs/2311.02462
OpenAI之所以提出这五个级别,是为了帮助人们更好地理解它对于安全和AI未来的思考。
毕竟,OpenAI已经被许多人视为构建更强大AI系统军备竞赛的领导者(OpenAI发言人这样表示)。
根据内部人士透露,也是在同一次会议上,OpenAI领导层演示了涉及GPT-4模型的研究项目。
这个模型展现出了全新的技能,已经可以提升到了类人的推理能力。
不过,他们并不允许向媒体透露更多细节。发言人只是表示,OpenAI一直在内部测试新功能。
多年来,OpenAI一直表示正致力于构建AGI。根据OpenAI的定义,AGI是「在最具经济价值的任务中超越人类的高度自治系统」。
可以肯定,目前全世界尚不存在这样的AI系统。
但全世界的AI大佬们,对于AGI的到来时间十分乐观。
Sam Altman表示,预计AGI在十年内实现。
此外,马斯克、Anthropic联创&CEO Dario Amodei、DeepMind创始人Hassabis,都与他持相同观点。
在这位前OpenAI研究员看来,2027年实现AGI的可能性极大。
长期以来,AI研究者一直在讨论AGI的标准该如何定义,大家耳熟能详的一个,就是上文提到的谷歌DeepMind提出的五级AI框架。
这些排名,都类似于汽车行业中用于评估自动驾驶汽车自动化程度的评价系统。
据悉,目前OpenAI这个排名是由高管制定,目前还在不断完善中。
而OpenAI也会不断收集员工、投资者、董事会等人的反馈,并且可能根据时间的推移对这些级别进行调整。
要知道,OpenAI如何定义AGI很重要,因为OpenAI的独特结构,正是围绕着其实现AGI的使命。
而OpenAI为此可是立下过誓言:「如果一个价值一致、具有安全意识的项目在OpenAI之前接近AGI」,OpenAI将承诺不与该项目竞争,并且尽自己所能协助该项目。
不过,OpenAI在章程中的措辞含糊不清,这就为「什么是营利性实体」的判断留下了空间。
而现在,有了这张通往AGI的全新路线图,OpenAI就可以测试自己和竞争对手处于哪个等级,这样或许就可以以更清晰地方式决定何时实现AGI。
目前我们知道的是,AGI最快也还要三年才实现,而且,可能需要投入价值数十亿美元的算力。
而就此路线图传出的前一天,OpenAI曾宣布与洛斯阿拉莫斯国家实验室合作的消息。
此番合作,正是为了探索GPT-4o等先进AI可以如何安全地协助生物科学研究。
洛斯阿拉莫斯国家实验室项目经理透露,合作的目标是测试GPT-4o的功能,并为美国政府建立起一套安全规范。
随后的公共或私有模型都可以根据这套规范,来评估自己模型的安全性。
正是对「安全」这个概念理解上的分歧,导致OpenAI此前的数次人员剧变。
5月,安全团队负责人、联创Ilya Sutskever出走后,OpenAI解散了安全团队。
另一员大将Jan Leike在一篇帖子中表示「公司的安全文化和流程已经让位于闪亮的产品」,随后愤而辞职。
一个这样的公司,如果真的第一个达到AGI,恐怕不会让人很放心。
那么,OpenAI高管所说的正接近L2,究竟指的是不是GPT-5?
有网友认为,GPT-5处于他们划分的第二级。即便是达到了人类级别的推理能力,它仍然在某些方面落后于人类。预计在2025-2026年底之前,很可能不会出现完全自主替代人类的智能体。
网友对此表示赞同,「GPT-5预计达到L2,具备博士级别的推理和问题解决能力,这已经接近超人类水平了」。
要知道,发达国家中拥有博士学位的人不到2%,所以GPT-5很可能具有比95%的人类更强的推理能力。我猜这可以用来替代相当数量的人类劳动。
L3对许多人来说就是通用人工智能(AGI),L5则是超级人工智能(ASI)了。
「这似乎证实了关于下一代前沿模型处在博士级的传言」。
另一位网友回应道,这还取决于GPT-4和GPT-5之间的跳跃有多大了。
对我来说,最有趣的一点是,推理能力似乎将独立于基础模型的规模。这很可能是我们都在等待的Q*。
众多网友纷纷一直认为:L3-L4就是AGI。
只不过,L3可能是弱AGI,L4可能是强AGI。
最后,实现L5之后,未来公司的架构是这样的。
参考资料:
https://x.com/rachelmetz/status/1811488920221503998
https://www.bloomberg.com/news/articles/2024-07-11/openai-sets-levels-to-track-progress-toward-superintelligent-ai
https://www.theverge.com/2024/7/11/24196746/heres-how-openai-will-determine-how-powerful-its-ai-systems-are
本文来自微信公众号“新智元”(ID:AI_era),作者:新智元,36氪经授权发布。