【CSDN 编者按】一封要求暂停AI的公开信引发热议, 随之而来的是GPT-5 被抵制。在麻省理工学院的活动中,OpenAI 的首席执行官兼联合创始人 Sam Altman 首次进行正面回应。
上个月,一封由1100多名 AI 专家签署的公开信引起热议,要求“所有人工智能实验室立即暂停至少6个月”,其中包括推特首席执行官埃隆·马斯克(Elon Musk)、苹果公司联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)和人道技术中心(Center for Humane Technology)的特里斯坦·哈里斯(Tristan Harris)。
这封公开信要求全球范围内像 OpenAI 这样的实验室暂停开发“比 GPT-4 更强大“的人工智能技术。简单来看,这似乎是一场针对 GPT-5 的抵制活动,该公开信强调了对未来系统安全性的担忧,并提出可能对社会和人类构成深远的风险。
4月13日,在麻省理工学院举行的关于人工智能商业未来的活动中,OpenAI 的首席执行官兼联合创始人 Sam Altman 首次正面回应这封信:“现在并未训练GPT-5,在短期内也不会训练”,并且他说到这封公开信中并未提到需要暂停开发的大部分技术细节,并且从版本号更新的方面来抵制大模型产品的发展是愚蠢的。
然而,OpenAI 没有训练 GPT-5 模型并不意味着他们停止了扩展 GPT-4 的功能。据悉,OpenAI 仍在不断增强 GPT-4 的各种功能(包括将其连接到互联网),同时,按照过往发布的 GPT 版本来看,下一代 GPT 版本极有可能是 GPT-4.5,而非 GPT-5。
不过,在这一版本号之下,GPT 的功能进度如何,我们对这个问题画上一个问号。
活动中, Altman 还对版本号谬误进行回应:在消费技术领域一直存在着一种误解,版本号的更新并不能直接反应产品能力的提升,使用者总是期待操作系统的数字版本能有着严格的控制,也就是不断更迭出新的版本号来增加安全感,其实本质上只是一种营销罢了。
这个系统的逻辑是这样的,众人都会觉得“iPhone 35 比 iPhone 34 好”,且认为 “数字越大,手机性能就越好。”由于消费市场和人工智能技术领域是重叠的,这种逻辑也同样适用于 OpenAI 的语言模型等系统。
网络上预测超级人工智能将在几年内出现,针对版本的更新,预测也层出不穷,还有更老练的评论员用标有“进展”和“时间”的轴绘制模糊的图表来推测AI的发展,并不加批判地将其作为证据,这个逻辑其实是错误的。
在 Altman 看来,倘若大模型的改进和迭代速度不受开发者掌控,以及行业内不存在统一衡量标准,那么即使 GPT 的版本号不断扩大,也并不能从根本上影响人工智能行业的发展,版本号只是一个名称,没有必要深究。所以 OpenAI 作为 AI 前沿技术的领导者,并非不担心 AI 存在道德、规范等风险,不过他们更希望在逐步摸索中降低这样的风险,而不是停止对大模型新版本的研发和优化。
相反,讨论的重点应该放在功能上:“演示这些系统能做什么和不能做什么,以及提前预测未来会如何随时间变化”,这就是为什么 Altman 说道,确认 OpenAI 目前没有开发 GPT-5 ,对担心人工智能安全的人来说并没有任何安慰,无法消除对人工智能的担忧。
人工智能的发展已是当下的潮流, 即使世界各国政府能够以某种方式禁止新的 AI 开发,但很明显,当前社会对目前可用的 AI 系统束手无策,GPT-5 还没有到来,在这个GPT-4 还没有被完全理解的时刻,所以版本是否更新与 AI 安全有直接关系吗?想听听各位开发者的看法。
本文来自微信公众号“CSDN”(ID:CSDNnews),作者:陈静琳,36氪经授权发布。