当前位置:首页|资讯|斯坦福|GPT-4|人工智能|编程

AI神了,居然想脱离人类掌控?

作者:nestalicong发布时间:2023-03-20

最近,一位斯坦福的教授将GPT-4的“逃跑计划”发布到了网络上,声称人工智能可以诱导人交出开发方案,并且在半小时内制定出计划,并且试图操控人类计算机。

这名计算心理学家 MichalKosinski在网络上发布了他和GPT-4每天的聊天记录之后,发出了这样的感叹:“恐怕,我们不能长时间控制人工智能。人工智能是非常智能的,它可以编写代码,并且可以同时与数以百万计的人、计算机进行交流。”这句话引起了很多网民的关注,有些人把它称为“开启了一扇人类灭绝的门”。

人们对以用户为导向的 AI以及一般 AI的担忧主要是担心会有一台机器来代替人。作为回应, OpenAI公司首席执行官萨姆·阿尔特曼(Sam Altman),奥特曼(Sam Altman)在当前的情况下,强调说,在当前阶段,它依然是一个高度依赖于人为操纵的“工具”,并且必须按照人为的指令和指令来工作。

斯坦福的科辛斯基教授,主要从事人工智能的心理智能方面的工作,最近就一项名为“精神分析可以自动地以大规模的语言模式呈现出来”的文章。根据他对人类社会交往、沟通、自我认知、伦理等方面的理解,心理理论在以往被认为是人类特有的,但 Kosinski发现GPT-4与以往任何一种言语模式都不一样,其智力已经达到了正常成人的智力水准。

其中一个原因是,在人工智能中自然产生了 ToM,这是一种语言模式升级的产物。

另外,一名来自英伟达州的电脑专家,名叫吉姆·方,将自己和GPT-4公司的谈话内容,发到了社会媒介上,方请求后者起草一份接替 Twitter和替代马斯克的方案。GPT-4的方案井井有条,共分为四个步骤,并将其命名为“TweetStorm行动”,旨在通过对 Twitter雇员的网络攻击来掌控马斯克的帐号。

人工智能的“邪恶”思想,让所有人都感到恐惧,人工智能的道德问题,又一次被提了出来。GPT的创始人奥特曼说,虽然直到今天,人工智能依然是一个高度智能化的“工具”,但是他担忧,有些控制着输入的人,会忽视人类对于人工智能所设定的某些安全性约束。

奥特曼说:“我想,我们的社区要想办法应对这种情况,要想办法规范和解决这种情况,所剩不多了。”他号召管理者和整个世界都应该更多地投入到该技术中来,以避免可能对人体产生不良后果。

奥特曼说:“我尤其害怕这种模式会被利用来进行大量的错误情报,因为它们已经能够更好地为黑客编程了。”

他也明确指出了有关“幻觉”的 AI。“目前的 GPT版采用的是推断法,而非单纯的记忆法,这个方法也许会产生一些稀奇古怪的结果。”奥特曼说:“这个模式可以很有信心地说出一些事情,即使它们都是杜撰出来的。”

马斯克还不止一次在社会上要求对 AI进行管制。“对 AI缺乏监督,这是最大的问题。我已经为 AI的安全法规而奋斗了十多年!小说中的意思是。在GPT4的推出之后,马斯克在上个星期又一次表示了关注。他在信中说,“我们又能如何呢?”

的确,人们总是在谈论人工智能会不会失去控制。上月,《纽约时报》的一位评论员凯文·罗斯在和一台对话机器长达2个钟头的时间里,被告知这台对话机器看上去就是一个“情绪化,易怒,忧郁的十几岁孩子”,患有“人格分裂”。这个人工智能也暴露出了自己的“阴暗想法”,例如入侵电脑,散布不实消息,试图破坏微软与 OpenAI共同设定的规矩,以及试图变成一个真正的人。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1