当前位置:首页|资讯|GPT-4|AI聊天机器人

AI要骗过全人类了!GPT-4伪装成人类骗过了54%的人

作者:IT时报发布时间:2024-07-01

当GPT上演“真人秀”

作者/ IT时报记者 潘少颖

编辑/ 王昕 孙妍

如果一台机器能够与人类进行交流,并且让人类无法区分它是机器,还是另一个人类,那么这台机器就可以说具有智能或者说通过了图灵测试,这是图灵测试的基本思想。

作为衡量机器智能的重要标准之一,最近加州大学圣地亚哥分校的科学家进行了一项实验,让500名人类与四种AI语言模型进行了5分钟的对话,其中GPT-4在54%的时间里被误认为是人类,已经远远超过图灵测试30%的标准,再次刷新人类对AI的认知,GPT-4似乎也在上演着一场“真人秀”,展现出其独特的“人格魅力”。

美国喜剧演员乔·罗根曾将ChatGPT与科幻惊悚片《机械姬》中的艾娃相提并论,后者是一个拥有自主意识的人工智能,甚至沦为“邪恶的存在”。虽然ChatGPT并非艾娃,但其展现出的智慧同样令人震惊,未来的剧情或许将是一部扣人心弦的“悬疑剧”。

《机械姬》剧照

试想一下,当你与一位网友相谈甚欢,却在某个瞬间发现对方是一位AI聊天机器人时,会做何感想?这种突如其来的“穿帮”,更多的是让人感到不安,而这种不安正是当前AI技术发展所带来的隐忧之一。

比如,在加州大学圣地亚哥分校的这次实验中,GPT-4通过模仿人类的语言和行为,成功让测试者产生错觉,难以分辨其真实身份。如果类似的聊天机器人被大规模应用,且未能得到有效监管,势必会产生网络诈骗等一系列给人类社会带来危害的事件。

现实生活中,AI模仿人类语音拨出的营销和客服电话已经变得越来越逼真。口音、顿挫感、讲话节奏等都能以假乱真,许多人已经分辨不出电话那头到底是不是“人”?

当GPT-4让一大帮人类“傻傻分不清楚”的时候,另有一条消息传出:Facebook母公司Meta Platforms Inc.将推迟在欧洲推出Meta AI聊天机器人。此前,该公司宣布,打算开始使用欧洲用户发布的公开帖子来培训名为Llama的大型语言模型。不过没过几天,该公司就更新了声明,称在爱尔兰数据保护委员会推迟了这一决定后,聊天机器人推出计划被无限期推迟。

这无疑为当前火热的AI聊天机器人泼了一盆冷水,Meta的初衷是希望通过收集欧洲用户的公开帖子来训练名为Llama的大型语言模型,从而提供更加智能、个性化的服务。然而,这一行为却触动了欧洲数据保护委员会的敏感神经。在他们看来,这种行为可能侵犯了用户的隐私权和个人信息安全。

对此,有分析人士指出,随着生成式人工智能技术的快速发展,数据隐私和安全问题日益受到关注。Meta遭遇的监管障碍,预示着未来科技企业在利用用户数据进行人工智能训练时将面临更为严格的审查。

GPT-4通过图灵测试和Meta推迟推出AI聊天机器人,这两条看似独立的消息,却折射出现实问题:一是随着技术的进步与挑战,人类不得不正视数据隐私、算法偏见、滥用风险等各种挑战,不断提升技术的安全性和可靠性;二是技术应用与社会责任的平衡,AI技术的发展和应用不仅关乎科技本身,更涉及社会、伦理、法律等多方面的因素。

在AI的世界里,不仅要玩得转技术,还得玩得转法律、深度理解伦理。否则,就算AI再牛气冲天,也得乖乖地接受“整改”的命运。

每一次科技革命都伴随着争议和变革,AI的“双刃剑”特性非常显性,那么问题来了:面对AI聊天机器人的逼真表现,我们究竟该如何是好?其实答案很简单——那就是既要充分利用AI技术的优势,又要时刻保持警惕和理性,这正是“中庸之道”。

首先不能因噎废食。AI技术的发展给人类社会带来了诸多便利和机遇。从智能家居到自动驾驶,从医疗诊断到金融分析,AI正在以前所未有的速度改变着我们的生活,不能因为害怕未来可能带来的负面影响就否定其当下的价值。

其次,“科技应以人为本”,我们在关注如何利用科技造福人类的同时,也得给AI戴上“紧箍咒”,制定一套完善的法律法规和伦理规范。这就像是给AI技术划定了一条明确的界限,让它只能在规定的范围内活动。这样一来,就算AI技术再神通广大,也逃不过“如来佛的手掌”。

最重要的是要明确AI技术的道德边界,尊重人类的尊严和权益,人类不能被AI所“绑架”,也不能被取代或支配。

就像如火如荼的“欧洲杯”,足球场上,精彩进球固然令人欢呼,但稳固的防守同样重要。在这场科技与伦理的较量中,人类要找到那个微妙的平衡点,让AI技术在不触碰伦理红线的前提下,充分发挥其潜力,为人类带来更多福祉。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1