当前位置:首页|资讯|AGI|人工智能|OpenAI

通向AGI之路还有多远?OpenAI发明了一套分级标准,自评仍有四步之遥

作者:蓝鲸新闻发布时间:2024-07-12

图片来源:视觉中国

蓝鲸新闻7月12日讯(记者 朱俊熹)热火朝天的人工智能究竟发展到了什么阶段?距离出现与人类同等甚至超越人类的智能还有多远?全球AI领域领军者OpenAI最新提出了一套包含五个级别的系统,用以追踪其在构建通用人工智能(AGI)方面的进展。

据彭博社7月11日报道,OpenAI最新提出的这个分级系统,定义的第一级是能够以对话方式与人类互动的人工智能,包括OpenAI旗下的ChatGPT及其他常见的AI对话助手。

如果按照这个定义,目前我们熟悉的各家AI大模型公司也基本都属于第一级别。

第二级是“推理者”,能够解决基本的问题,这一级别人工智能的水平相当于拥有博士学位但无法使用工具的人类。第三级被称作“代理”,也就是AI智能体,OpenAI将其定义为能够代表用户采取行动。第四级是能够创新的人工智能。而位于第五级的人工智能能够执行组织工作,这也是实现AGI的最后一步。

OpenAI高管在周二的全体会议上告诉员工,按照这一分类系统,OpenAI目前仍处于第一级,但即将到达第二级别。一位知情人士告诉彭博社,领导层在会议上还展示了一项GPT-4模型相关的研究项目,他们认为该项目表现出了类似人类的推理能力。

这套五级系统由OpenAI领导层制定,将会收集公司员工、投资者、董事会等人员的反馈,并进行调整。OpenAI也计划与投资人和公司外部人士分享这些等级。

像许多其他AI公司一样,OpenAI的终极目标是创造出AGI,确保其造福全人类。在OpenAI的定义中,AGI指的是通常比人类更聪明的人工智能系统。OpenAI首席执行官Sam Altman去年12月当选《时代》年度CEO后在采访中表示,AGI可能在未来四五年内实现,将会创造一个与过去截然不同的未来。

但OpenAI通向AGI的路线在公司内外都曾引发争议。今年5月,OpenAI的超级对齐团队被曝已实质解散。该团队最初计划将使用公司20%的算力资源,研究如何确保超级智能不会做出违背人类意愿或危害人类利益的行为。团队负责人Jan Leike离职后在社交媒体上表示,他与OpenAI领导层对公司核心优先事项的看法长期不合。Jan Leike认为应当尽可能地为AGI的到来做好准备,但OpenAI“安全文化和流程已经让位于耀眼的产品”。

由于AGI缺乏一个清晰的定义,目前AI业界各方对其实现时间和路径也尚无统一的观点。英伟达CEO黄仁勋就曾表示,“当我们谈论AGI时,必须明确其定义和标准。如果AGI的定义是模糊或不可定义的,那么我们就很难给出一个确切的实现时间表。”他认为,如果将AGI定义为通过人类测试的能力,那么人工智能在五年内就能在每一项测试中都表现良好。

OpenAI最大的竞争对手、AI初创企业Anthropic的首席执行官Dario Amodei在近期一档播客节目中提到,到2025-2027年,很有可能会出现在大多数事情上都要比人类更出色的人工智能模型。

埃隆·马斯克也曾预测称,AI可能会在明年比任何一个人类都要聪明。如果以这样的变化速度持续下去,到2029或2030年的时候,数字智能可能会超过所有人类智能的总和。今年5月,马斯克旗下的人工智能公司xAI刚刚完成了最新60亿美元的B轮融资,投后估值达到240亿美元,仅次于OpenAI。

而在国内,AI领域的许多公司特别是创企,同样将实现AGI视为终极目标,在通往AGI之路上也存在着分歧。

在6月举办的2024北京智源大会上,几家中国大模型明星公司的CEO们同台讨论过对AGI的观点。其中,百川智能CEO王小川将AGI直接对标于医生,因为医生是所有职业中智力密度相对最高的。月之暗面CEO杨植麟和智谱AI CEO张鹏对AGI的定义更为模糊,张鹏指出随着技术的演进,AGI的内涵和外延都在不断地发生变化。

杨植麟则提到,AGI的定义最重要的作用是让全社会对接下来的发展有所准备。短期内仍然需要一些量化,衡量AGI的开发进度。

“(评估)不是一个容易的问题,需要对评估维度做很多拆分,比如知识能力、推理能力和创造的能力,评估的方式会完全不一样。” 杨植麟说。

OpenAI最新提出的这套分级系统,就试图更加直观和量化地解决AGI定义的分歧,并希望被业界所接受。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1