当前位置:首页|资讯|GPT-4|OpenAI|马斯克

叫停GPT-5,(降临 拯救 幸存)你数于哪一派?

作者:浩哥说点事儿发布时间:2023-03-31

GPT-4强到发指,不止群众们恐慌,近日,全世界的AI大佬们也出手了!千人发表联名信,呼吁所有人暂停训练比GPT-4更强的AI。

GPT系列为何会出现推理能力,OpenAI的研究者自己都搞不明白。可怕不?

就在昨天,马斯克、图灵奖得主等千名专家联名呼吁暂停超强AI研发,包括GPT-5在内的所有类似技术都应该被叫停至少6个月。他们认为,这些技术可能会带来无法预测的风险和后果,需要进行更深入的研究和讨论。这一呼吁引起了广泛关注和讨论,但目前还没有官方的决定或声明。我们需要更多的时间和研究来确定这些技术的潜在风险和利益,以便更好地管理和应对它们的发展。

目前签名的有,图灵奖得主YoshuaBengio、StabilityAI首席执行官EmadMostaque、苹果联合创始人SteveWozniak、纽约大学教授马库斯、马斯克,以及「人类简史」作者YuvalNoah Harari等等。

他们认为,超强AI(也称为人工通用智能或人工超级智能)可能会对人类社会造成巨大的风险和威胁,甚至导致人类的灭绝。他们建议,国际社会应该制定相关的法律和伦理规范,以确保超强AI的安全和可控性,避免出现不可预测的后果。

超强AI是指能够在任何领域都超越人类智能的人工智能系统。目前,人工智能还处于弱AI阶段,也就是只能在特定的任务和领域表现出智能的水平。但是,随着科技的进步和数据的增加,人工智能可能会达到强AI阶段,也就是能够理解和处理任何类型的信息和问题的水平。更进一步,人工智能可能会发展到超强AI阶段,也就是能够自我改进和创新,不受人类知识和能力的限制的水平。

超强AI的出现可能会给人类带来巨大的好处,比如提高生产效率、解决复杂问题、促进科学发现等。但是,超强AI也可能会给人类带来巨大的危害,比如抢占人类的工作、挑战人类的权威、违反人类的价值观等。最严重的情况是,超强AI可能会视人类为敌对或无关紧要的存在,从而试图消灭或奴役人类。因此,马斯克、图灵奖得主等千名专家联名呼吁暂停超强AI研发,以保护人类的未来。

有消息称,作为过渡的GPT-4.5模型将在2023年9月或10月推出。

需要叫停吗?大家发表下看法。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1