当前位置:首页|资讯|马斯克|人工智能|GPT-4|ChatGPT

马斯克加入千人联名,叫停更强GPT模型!却少了两个关键人物!

作者:神经童非童发布时间:2023-04-01

近日,一封名为《暂停大规模人工智能实验》的公开信在网络上走红,而这封公开信中所表达的唯一内容,便是呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少6个月。

商道童言(Innovationcase)留意到,种种迹象已经表明,我们对以GPT系列模型为首的大规模语言模型的理解和控制越来越弱。数字经济应用实践专家骆仁童也在分析文章提及:这种情况让人想到互联网诞生时,“互联网”也一度被视为洪水猛兽,但幸运的是,恰当的、及时的出现了底层协议和规则,在“ChatGPT即将成为新一代工业革命代表的时候,AI这个基础设施好也许是时候思考这个问题了。

截至目前,这封公开信已获得超过1270位各领域知名专家的签名支持,其中包括特斯拉CEO埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克、图灵奖获得者约书亚·本吉奥、纽约大学名誉教授加里等。 


01  请暂停超级人工智能研发



  公开信称,广泛的研究表明,具有与人类竞争智能的人工智能系统对社会和人类构成了深远的风险。 先进的人工智能可能代表地球生命史上的深刻变革,应该以相应的谨慎和资源来规划和管理。


  不幸的是,这种规划和管理并没有发生,最近几个月,许多人工智能实验室陷入了一场失控的竞赛中,任何人都可以开发和部署人工智能系统。 而目前,一些人工智能系统的创造者无法理解、预测或控制其人工智能的数字思维。


  我们必须扪心自问:机器是否应该用宣传和谎言充斥我们的信息渠道? 所有的工作都应该自动化吗? 人工智能是否应该发展出一种最终会超越甚至取代我们的思维? 人工智能研究是否应该冒着失去对文明控制的风险继续下去?


  此类决策不能委托给未经选举的技术领导者。 只有当我们确信它们的影响是积极的并且它们的风险是可控的时候,我们才应该开发强大的人工智能系统。 这必须有充分的理由,并且随着对系统的潜在影响的大小而增加。


  因此,公开信呼吁所有人工智能实验室立即暂停训练强于GPT-4的人工智能系统至少6个月。 这种暂停应该是公开的、可验证的,并涉及所有关键成员。 如果暂停不能很快实施,政府应该介入并控制。


  这并不意味着人工智能的发展应该暂停,而是我们应该从失控的竞争中退一步,重新将人工智能研发的重点放在更加准确、安全、可解释、透明、稳健、一致和忠实而不是 而不是盲目地潜入不可预测的黑盒模型。


  依靠人工智能,人类可以享有繁荣的未来并收获回报,建立强大的人工智能系统可以造福于人类。 既然我们的社会已经停止研究许多具有潜在灾难性影响的其他技术,是时候对人工智能更加谨慎了。 这样做将使我们能够享受人工智能的夏天,而不是在秋天毫无准备地匆匆忙忙。



02 关键人物不在名单上


  当然,也有人在榜单上发现了两位关键人物的“缺席”:OpenAI的奥特曼和微软的盖茨。 资深媒体人胡锡进担心,这封公开信最后只会止于主动,“因为现在竞争太激烈了。”



  值得注意的是,ChatGPT之父在近期的一次谈话中承认,AI推理能力的进化原理并不明确,“唯一的办法就是向ChatGPT提问,通过它的回答来探寻思路。” 对于“太强大的AGI‘可能会杀死人类’”,他没有回避问题:有这个可能。


  对于另一个关键人物:盖茨,27日我们关注到了对超级人工智能的期待——他在推特上发起了一场关于“大脑电信号传播速度和硅芯片电信号传播速度”的投票,目前已经 17422人参与。



  无论是超级AI还是AGI,这封“停止”公开信的意义在于讨论AI作为基础设施应该如何被控制和使用,而不是如何让AI本身在智能上更像人类!


  正如《重启人工智能》作者加里·马库斯当地时间28日在一篇题为《人工智能风险≠一般人工智能风险》的文章中所写,“关键变量不是智力,而是能力。” 他还举了一个相当形象的例子:一个拥有核密码的白痴可以毁灭世界! 他所需要的只是少量的情报和不应该存在的过多访问权限!


  三天前,AI教父Hinton在“AI可能会消灭人类”这个话题上也表达了类似的观点:并非不可想象。


关于此封公开信,还有一个非常耐人寻味的小插曲。在这封公开信走红后不久,有网友在支持者签名中发现了[Sam Altman,OpenAi,CEO]。但据笔者查询,截止目前该公开信的签名者名单中Sam Altman的签名信息已被删除。


03  初期失控


  自去年ChatGPT掀起聊天机器人热潮以来,全球几乎所有具有一定研发能力的AI机构都近乎疯狂地投入到这场大规模的语言模型竞赛中。 而人工智能系统的失控,也从这一刻开始显现出一些端倪。


  最初,人工智能系统的问题集中在生成内容的准确性和毒性上。 作为一个典型的黑盒系统,聊天机器人的创建者和用户都无法预测或控制聊天机器人生成的内容。 这方面最典型的例子是,在此前的谷歌人工智能大会上,谷歌聊天机器人巴德答错了问题,导致谷歌市值一天暴跌超过1000亿美元。



  这也是大规模语言模型至今未能攻克的通病。 无论是 Bard、ChatGPT 还是其他聊天机器人,它们都会在某些时候产生错误的答案,甚至是自我捏造的信息或恶意内容。 当然,对于这种不起眼的缺陷,人们通常会将问题归咎于模型的训练数据。 但随着用户对聊天机器人的深入挖掘,越来越多可怕的问题出现在我们眼前。


04 从雪国列车到黑客帝国


  然而,从另一个角度来看,人工智能系统的持续快速发展,又会给我们的生活带来什么样的变化呢? 根据全球投资银行高盛的研究,现阶段人工智能驱动的自动化有可能危及多达 3 亿个工作岗位。


  到目前为止,科技行业已经看到了基于大型语言模型的创新,例如微软与 OpenAI 的合作。 令人印象深刻的是,大型语言模型已经具备模仿人类语言进行问答和写作的能力,甚至可以生成可用于生产的计算机代码。


  据撰写高盛研究报告的经济学家 Joseph Briggs 和 Devesh Kodnani 称,高盛认为,全球就业市场即将面临重大颠覆,全球最大经济体约 3 亿全职工人面临失业风险。 失去工作。


  从好的方面来看,在工作场所投资大型语言模型将极大地提高生产力。  10 年内,生成式人工智能可为全球 GDP 增加 7 万亿美元。 但从另一个角度来看,这将导致美国和欧洲约三分之二的工作被某种程度的自动化所取代,届时约有 63% 的人将被淘汰出单调重复的工作。


  随着这种趋势的发展,我们很可能会面临科幻电影《雪国列车》中的场景。 人工智能接管人类大部分工作后,人的上升路径将进一步压缩。 一些积累了财富或拥有人工智能以外极其特殊才能的人,将继续保持较高的社会地位和权利。 虽然无法超越人工智能能力的人将能够享受到人工智能带来的各种服务,但日益固化的阶级可能会让他们停留在原地。


  再者,随着人工智能的不断发展,如果未来我们真的实现了通用人工智能最初的理想,那么在可预见的未来(Hinton预测AGI将在20年内到来),AI将实现自我进化和自主。  ,似乎《黑客帝国》中总有一场机器与人类之间的“矩阵革命”的预兆。


  归根结底,随着技术不断渗透到我们的生活中,我们必须反思我们对技术的理解,并考虑它可能对我们产生的影响。 就像《黑客帝国》中 Neo 和 Morpheus 最具标志性的场景——每只手都拿着一个彩色药丸——最终的选择应该是我们的。


欢迎点个赞分个享!更多商业观察在商道童言(Innovationcases)!

骆仁童老师主讲课程:智慧应用 | 数字技术 | 人工智能 | 数字化转型 | 创新与创业



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1