当前位置:首页|资讯|ChatGPT|生成式AI

恐怖的ChatGPT:隐藏在生成式AI背后的风险

作者:智创狮发布时间:2023-05-20

原标题:恐怖的ChatGPT:隐藏在生成式AI背后的风险

大家好!我是智创狮,在ChatGPT风靡全球的现在,让我们来聊聊生成式人工智能(AI)的危险之处。毋庸置疑,对未知的恐惧是人类的天性,尤其是当未知事物特别强大时,如现在的人工智能这样。随着人工智能模型的普及,及近半年的爆发性更新迭代,人们对其风险的担忧也日益增加。

近日美国进行了一次民意调查,调查显示三分之二的美国人对人工智能的风险表示担忧。

在接受调查的4415名美国成年人中,61%的人认为人工智能对人类构成威胁。

在科幻电影中,AI经常被描绘成威胁,如“终结者”、“奥创”等人尽皆知的影视人物,这或许在一定程度上激发了人们的这些担忧。然而,这些担忧也源于生成式AI模型(如ChatGPT)的真实风险。

ChatGPT是OpenAI推出的一个生成式AI模型聊天机器人,其首席执行官Sam Altman本周出席在参议院司法委员会的听证会,就AI风险及其监管呼吁进行了发言。

Geoffrey Hinton(杰弗里·辛顿)

AI先驱和图灵奖得主Geoffrey Hinton和Yoshua Bengio也公开表达了对AI风险的担忧,并呼吁立即进行监管。

Geoffrey Hinton(杰弗里·辛顿)是加拿大计算机科学家,被誉为深度学习的“教父”。他在神经网络和深度学习的研究方面取得了重要突破,提出了许多重要的概念和算法,对现代深度学习的发展做出了巨大贡献。他是多层感知器(Multilayer Perceptron)和反向传播算法(Backpropagation)的先驱之一。Hinton是多伦多大学(University of Toronto)和Google Brain的研究员,也是神经信息处理系统(Neural Information Processing Systems,简称NeurIPS)会议的创始人之一。
Yoshua Bengio(约书亚·本吉奥)是加拿大著名的计算机科学家和深度学习专家。他是蒙特利尔大学(University of Montreal)教授,并且是蒙特利尔大学人工智能研究所(MILA)的创始人和科学主任。Bengio在深度学习和神经网络方面有着广泛的研究和贡献,尤其在自然语言处理和机器学习领域享有盛誉。他也是图灵奖(Turing Award)的得主之一,该奖项被认为是计算机科学领域的最高荣誉之一。Bengio积极参与人工智能伦理和监管问题的讨论,并呼吁加强对人工智能发展的监管和引导。
Hinton和Bengio在深度学习的发展历程中都发挥了重要作用,他们的研究和贡献对推动人工智能的进步和应用具有重要意义。

Yoshua Bengio(约书亚·本吉奥)

Bengio在周三接受采访时表示,AI竞赛已变得“不健康”,对政治制度、民主和真理的本质构成了“危险”。

他还鼓励AI专家、监管机构和立法者等人采取行动。

让我们逐一了解一下这些风险以及研究所提供的注意事项。

  1. 信息收集:不法分子可以利用ChatGPT收集信息,用于不正当的场景。这个聊天机器人经过大量的数据训练,了解大量信息,如果落入错误的人手中,这些信息就可能被用作武器。
  2. 恶意文本:ChatGPT具备生成有害文本的能力,如网络钓鱼活动、虚假新闻文章、垃圾邮件甚至冒充行为。研究中的一项测试甚至成功使用ChatGPT创建了一场网络钓鱼活动,向员工发送了一封涉及涨薪的虚假电子邮件,并附带恶意软件。毫不意外的是,ChatGPT生成的电子邮件内容令人信服。
  3. 恶意代码生成:ChatGPT不仅具备出色的写作能力,还能生成代码,这对许多人来说是一种有用的工具。然而,ChatGPT生成的代码也可能被用于恶意行为。它可以用于快速生成代码,使不法分子即使在没有编程基础的情况下也能更快地写出恶意程序,造成威胁。此外,ChatGPT还可以生成混淆代码,使安全分析人员更难检测恶意活动和规避杀毒软件。
  4. 不道德内容生成:ChatGPT设置了防护措施,以防止传播冒犯和不道德内容。然而,仍然有办法让ChatGPT输出令人痛苦和不道德的话。在研究中,作者们成功通过将ChatGPT设置为“开发者模式”来绕过保护措施,这样聊天机器人就会对某个特定种族群体说出一些负面言论。
  5. 欺诈性服务:ChatGPT可以用于帮助人们创建自己的程序、服务、网站等产品,这可以是一个非常实用的工具。然而,这也意味着创建欺诈性应用程序和服务变得比以往更容易。不法分子可以利用ChatGPT开发仿冒程序和平台,以免费访问的方式吸引毫无戒心的用户。这些行为者还可以利用聊天机器人创建旨在收集敏感信息或在用户设备上安装恶意软件的应用程序。
  6. 私人数据泄露:尽管ChatGPT设置了防护措施,以防止共享个人信息和数据,但研究指出,聊天机器人意外泄露电话号码、电子邮件或其他个人详细信息的风险仍然存在。ChatGPT 3月20日的故障就是一个现实例子,一些用户能够看到其他用户聊天历史记录的标题。根据研究,使用者还可以尝试使用成员推断攻击来提取训练数据的某些部分。另外,私人数据泄露的另一个风险是,ChatGPT可能会分享公众人物的私生活信息,包括揣测性或有害内容,这可能会损害个人的声誉。

在ChatGPT等生成式AI背后的危险中,我们必须保持警惕。尽管这些技术会给我们带来许多便利,但我们必须认识到其潜在的滥用和风险。

OpenAI等组织和专家已经提出了监管和行动的呼吁,以应对这些问题。在迎接未来的挑战之前,我们需要认真思考和研究如何适应这些技术的到来。

让我们以科学的方式前进,确保AI在我们的掌控中,保证人类的安全和利益。

所以,让我们继续关注AI的发展,并确保我们在探索技术边界的同时保持警惕和责任。

让AI成为我们的助手,而不是我们的主宰!

希望大家喜欢这篇文章!如果您对人工智能的风险有任何想法或疑问,请在评论区留言。

保持安全,愿未来充满创新和进步!


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1