当前位置:首页|资讯|ChatGPT|人工智能

比尔盖茨最新博文:AI的风险确实存在,但是可控

作者:36氪发布时间:2023-07-15

原标题:比尔盖茨最新博文:AI的风险确实存在,但是可控

作者 | 黄金琼

编辑 | 邓咏仪

ChatGPT爆火半年有多,在快速发展之余,除了解决技术问题,合规可能会是接下来的老大难——在国会传讯Sam Altman后,如今FTC(美国联邦贸易委员会)也正式对ChatGPT进行调查。

这与前几天比尔盖茨的发声相呼应。他在最新博文中表示:AI是最具变革性的创新,诚然有风险,但风险也可控。

在博文中,比尔盖茨主要讨论了人工智能的风险和挑战,以及如何应对这些问题,其中还提供了一些例子和建议。

比尔盖茨首先对如今人们存在的对AI担忧表示肯定——现在正处于人工智能深刻变革的时代,这是一个不确定的时代。但他乐观地认为,这些风险都是可控的。

其次,比尔盖茨也列出了当前AI所引发的风险,包括人工智能生成的深度伪造和错误信息可能会破坏选举和民主、使得个人和政府发动攻击变得更加容易、将夺走人们的工作以及AI继承人类偏见并胡编乱造,学生不会学习写作因为AI会替他们完成等。

最后,比尔盖茨也提出一系列监管AI的建议。在各国政府层面,各国政府需要积累人工智能方面的专业知识,以制定应对AI的法律法规,来应对虚假信息和深度伪造、安全威胁、就业市场变化以及对教育的影响等问题。

而在解决方式上,政府领导人要与其他国家进行合作,而不应该是单打独斗,还要与人们进行知情的、深思熟虑的对话的能力。

此外,对企业来说,AI公司要具有负责任的态度,工作开展要保证安全性,包括保护人们隐私等等。

以下为全文内容,翻译来自GPT-4,经36氪编辑整理:

人工智能带来的风险似乎压倒一切。那些失去工作被智能机器取代的人该怎么办?AI会影响选举结果吗?如果未来的AI决定不再需要人类,想要摆脱我们,该怎么办?

这些都是合理的问题,我们需要认真对待它们所引发的担忧。但我们有充分的理由相信我们能够应对这些问题:这并不是第一次在重大创新中,引入了必须加以控制的新威胁,我们以前也曾遇到过。

无论是汽车的问世,还是个人电脑和互联网的兴起,人们都曾历经过其他变革时刻,尽管经历了许多动荡,但最终都得到了更好的发展。第一辆汽车上路后不久,就发生了第一起车祸。但我们并没有禁止汽车,而是采用了限速、安全标准、驾照要求、酒驾法以及其他道路规则。

我们现在正处于另一场深刻变革的初期阶段,即AI时代,这与限速和安全带之前的不确定时代相类似。人工智能的变化如此之快,以至于我们还不清楚下一步会发生什么。我们正面临着由当前技术运作方式、人们将其用于恶意意图的方式以及人工智能如何改变我们作为社会成员和个体所引发的重大问题。

在这样的时刻,感到不安是很自然的。但历史表明,解决新技术带来的挑战是可能的。

我曾经写过人工智能将如何彻底改变我们的生活,它将帮助解决健康、教育、气候变化等方面过去似乎难以解决的问题。盖茨基金正在把这个问题作为优先事项,我们的首席执行官马克-苏兹曼(Mark Suzman)最近分享了他对AI在减少不平等中的角色的思考。

我将在未来更多地讨论人工智能的好处,但在这篇文章中,我想谈谈我听到和读到的最常见的担忧,其中许多我也有同感,并解释一下我是如何看待这些担忧的。

从迄今为止关于人工智能风险的所有文章中,有一件事情很明确,那就是没有人拥有所有的答案。另一点对我来说很明确的是,人工智能的未来并不像某些人想象的那样严峻,也不像其他人想象的那样美好。风险是真实存在的,但我乐观地认为这些风险是可以控制的。当我逐一讨论每个问题时,我将回到几个主题:

  • 人工智能引发的许多问题都有历史先例。例如,它将对教育产生巨大影响,但几十年前的便携式计算器,以及最近的允许电脑进入课堂也是如此,我们可以借鉴过去的成功经验。
  • 人工智能带来的许多问题也可以在人工智能的帮助下得到解决。
  • 我们需要调整旧法并颁布新法——就像现有的反欺诈法律必须适应网络世界一样。

在这篇文章中,我将重点关注已经存在或即将存在的风险。我并不打算讨论当我们开发出一种能够学习任何学科或任务的人工智能时会发生什么。相反,我今天讨论的是专门构建的AI。

无论我们是在十年内还是一个世纪内达到这一点,社会都将需要面对一些深刻的问题。如果一个超级AI确立了自己的目标怎么办?如果它们与人类的目标相冲突怎么办?我们是否应该制造超级AI?

但是,在考虑这些长期风险时,不应忽视眼前的风险。我现在来谈谈这些短期的风险。

AI生成的伪造内容和错误信息可能会破坏选举和民主

利用技术传播谎言和不实信息并不是什么新鲜事。几个世纪以来,人们一直通过书籍和传单来传播谎言。随着文字处理机、激光打印机、电子邮件和社交网络的出现,这种做法变得更加容易。

人工智能将这个假文本的问题扩大化,使几乎任何人都可以制作伪造的音频和视频,这就是所谓的深度伪造。如果你收到一个看起来像你孩子的声音信息说“我被绑架了,请在接下来的10分钟内向这个银行账户汇款1000美元,并且不要报警”,那么它将产生远超过同样内容的电子邮件的恐怖情绪影响。

在更大的范围内,人工智能生成的深度伪造可能会被用来试图影响选举结果。当然,不需要复杂的技术就可以对选举的合法赢家产生怀疑,但人工智能将使这一过程变得更加容易。

目前,已经出现了一些虚假视频,这些视频中包含了众所周知的政治家被编造的片段。想象一下,在一次重要选举的早晨,一段显示某位候选人抢劫银行的视频在网上疯传。即使这是假的,但新闻机构和竞选团队花了几个小时才证明这一点。有多少人会看到这段视频并在最后一刻改变投票?这可能会改变比赛的结果,尤其是在选情胶着的情况下。

最近,Open AI联合创始人Sam Altman在美国参议院委员会作证时,来自两党的参议员都对人工智能对选举和民主的影响有所关注。我希望这个话题能继续引起每个人的关注。我们确实还没有解决假信息和深度伪造的问题。但有两点让我保持谨慎乐观。一是人们有能力学会不轻信一切。多年来,电子邮件用户常常上当受骗,因为有人冒充尼日利亚王子,承诺只要分享信用卡号码就能获得巨额回报。但最终,大多数人学会了对这些邮件进行二次审查。随着诈骗手段越来越高明,许多目标也变得越来越狡猾,我们需要为深度伪造建立同样的防范意识。

另一件让我充满希望的事情是,AI不仅可以创建深度伪造,还可以帮助识别它们。例如,英特尔开发了一种深度伪造检测器,而政府机构DARPA正在研究如何识别视频或音频是否被篡改。

这将是一个循环过程:有人找到了检测造假的方法,有人想出了对付它的办法,有人开发出了反制措施,如此循环往复。这不会是一个完美的成功,但我们也不会束手无策。

人工智能使得人类和政府发动攻击变得更加容易

如今,当黑客们想找到软件中的漏洞时,他们会通过暴力编写代码,对潜在的弱点进行攻击,直到发现漏洞为止。这需要走很多弯路,因此需要时间和耐心。

想要打击黑客的安全专家也必须做同样的事情。你在手机或笔记本电脑上安装的每一个软件补丁,都代表着善意或恶意的人花费了许多时间的搜寻。

人工智能模型将通过帮助黑客编写更有效的代码来加速这一进程。他们还将能够利用个人的公共信息,如工作的地方和他们的朋友是谁,来开发出比我们现在看到的更先进的网络钓鱼攻击。

好消息是,人工智能既可用于恶意目的,也可以用于良好的目的。政府和私营部门的安全团队需要拥有最新的工具,以便在犯罪分子利用安全漏洞之前发现并修复它们。我希望软件安全行业能够扩大他们在这方面已经开展的工作,这应该是他们最关心的问题。

这也是为什么我们不应该像某些人建议的那样,试图暂时阻止人们施行人工智能的新发展。网络犯罪分子不会停止制造新工具,想要利用人工智能设计核武器和生物恐怖袭击的人也不会停止,阻止他们也需要以同样的速度继续进行。

在全球层面也存在相关风险:AI军备竞赛可用于设计和发动针对其他国家的网络攻击。每个国家的政府都希望拥有最强大的技术,以阻止对手的攻击。这种“不让任何人抢先”的动机可能会引发一场制造日益危险的网络武器的竞赛。这样一来,每个人的处境都会变得更糟。

这是一个可怕的想法,但我们有史为鉴。尽管世界核武器防扩散机制存在缺陷,但它阻止了我们这一代人在成长过程中非常害怕的全面核战争的发生。各国政府应考虑建立一个类似于国际原子能机构的全球人工智能机构。

人工智能将夺走人们的工作

未来几年,人工智能对工作的主要影响将是帮助人们更高效地完成工作。无论是在工厂工作,还是在办公室处理销售电话和应付账款,都将如此。最终,AI在表达思想方面的技能将足够好,以至于它能够为你写邮件并管理你的收件箱。你将能够用简单的英语或任何其他语言编写一份请求,并生成一份内容丰富的工作报告。

正如我在正如我在2月份的文章中所说,生产力的提高对社会有益。这使得人们有更多的时间去做其他事情,无论是在工作中还是在家中。而且,对助人为乐者的需求永远不会消失,例如教书育人、照顾病人和赡养老人。

但是,在我们向人工智能驱动的工作场所过渡的过程中,一些工人确实需要支持和再培训。这是政府和企业的职责所在,他们需要很好地管理它,这样工人们才不会被抛弃,避免像美国制造业工作岗位减少时发生的那种对人们生活的干扰。

此外,请记住,这并不是新技术第一次导致劳动力市场发生重大变化。我认为人工智能的影响不会像工业革命那样巨大,但肯定会像个人电脑的问世那样巨大。文字处理应用软件并没有消除办公室工作,但却永远地改变了办公室工作。雇主和员工必须适应,他们也确实做到了。人工智能带来的转变将是一个崎岖的过渡,但我们完全有理由相信,我们能够减少对人们生活和生计的干扰。

人工智能继承了我们的偏见并胡编乱造

幻觉,这是指人工智能自信地作出一些根本不真实的声明,且通常发生的原因是机器不理解你的请求的背景。如果你让一个人工智能写一个关于去月球度假的短篇故事,它可能会给你一个非常富有想象力的答案。但是如果你让它帮你规划一次前往坦桑尼亚的旅行,它可能会试图把你送到一个不存在的酒店。

人工智能的另一个风险是,它反映出甚至加剧了人们对某些性别身份、种族、民族等的现有偏见。

要明白为什么产生这样的幻觉和偏见,了解当前最常见的AI模型如何运作是非常重要的。它们本质上是非常复杂的代码版本,可以让您的电子邮件应用程序预测您要输入的下一个单词:在某些情况下,几乎是网上所有可用的文本,它们扫描海量文本,然后进行分析,找出人类语言中的模式。

当你向人工智能提出一个问题时,它会查看您使用的单词,然后搜索经常与这些单词相关联的文本。如果您写下“列出煎饼的配料”,它可能会注意到“面粉、糖、盐、发酵粉、牛奶和鸡蛋”这些词经常与该短语一起出现。然后,根据它所知道的这些单词通常出现的顺序,它会生成一个答案(这种方式工作的AI模型使用的是所谓的转换器,GPT-4就是这样一个模型)。

这个过程解释了为什么人工智能可能会产生幻觉或出现偏差,它对你提出的问题或告诉它的事情没有任何上下文理解。如果你告诉它打错了,它可能会说“对不起,我打错了”。但这只是幻觉,它并没有打错任何东西,它之所以这么说,是因为它已经扫描了足够多的文本,知道“对不起,我打错了”是人们在被纠正后经常写的一种句子。

同样,AI模型也会继承它们所训练的文本中固有的偏见。如果一个人读了很多关于医生的文章,而文章中大多提到男性医生,那么它的答案就会假定大多数医生都是男性。

尽管一些研究人员认为幻觉是一个固有的问题,但我并不同意。我乐观地认为,随着时间的推移,我们可以教会AI模型区分事实和虚构。例如,Open AI在这方面做了很有前途的工作。

包括阿兰·图灵研究所和国家标准与技术研究所在内的其他组织正在解决偏见问题。一种方法是在AI中加入人类价值观和更高层次的推理。这类似于有自我意识的人类的工作方式:也许你认为大多数医生都是男性,但你对这一假设有足够的意识,知道你必须有意识地与之斗争。人工智能也可以以类似的方式运行,尤其是如果模型是由来自不同背景的人设计的。

最后,每个使用人工智能的人都需要意识到偏见问题,并成为一个知情的用户。你要求人工智能起草的论文可能会充满偏见,就如同充满了事实错误一样。你需要检查你的AI的偏见,以及你自己的偏见。

学生不会学习写作,因为AI会替他们完成写作

许多教师担心AI会破坏他们与学生的工作。在一个只要能上网,任何人都能用人工智能写出可圈可点的论文初稿的时代,有什么能阻止学生将其作为自己的作品上交呢?

已经有一些AI工具在学习判断一篇文章是由人类还是电脑写的,所以教师们可以知道他们的学生是否在做自己的作业。但是有些教师并没有试图阻止他们的学生在写作中使用AI,他们实际上是在鼓励它。

今年1月,一位名叫切丽·希尔兹(Cherie Shields)的资深英语教师在《教育周刊》(Education Week)上发表了一篇文章。 的文章上发表了一篇文章,介绍了她如何在课堂上使用Chat GPT。Chat GPT帮助她的学生从开始写一篇作文到攥写大纲,甚至给他们的作业提供反馈。

她写道:“教师必须接受人工智能技术,将其作为学生可以使用的另一种工具。就像我们曾经教学生如何进行正确的谷歌搜索一样,教师应该围绕Chat GPT机器人如何协助论文写作设计清晰的课程,承认人工智能的存在并帮助学生使用它可以彻底改变我们的教学方式。”并非每位教师都有时间学习和使用新工具,但像Cherie Shields这样的教育工作者提出了一个很好的论点,即那些有时间的教师将受益匪浅。

这让我想起了上世纪七八十年代电子计算器普及的时代。一些数学教师担心学生会停止学习基本算术,但另一些教师则接受了这项新技术,并将重点放在算术背后的思维能力上。

人工智能还可以帮助写作和批判性思维。特别是在早期,当幻觉和偏见仍然是一个问题时,教育工作者可以让人工智能生成文章,然后与学生一起检查事实。教育非营利组织如可汗学院和 OER项目等为教师和学生提供免费的在线工具,这些工具非常重视对论断的检验,没有什么技能比知道如何辨别真假更重要了。

我们确实需要确保教育软件有助于缩小成绩差距,而不是使其变得更糟。如今的软件主要面向那些已经有学习动力的学生。它可以为你制定学习计划,为你提供好的资源,并测试你的知识。但是,它还不知道如何吸引你去学习你还不感兴趣的科目。这是开发人员需要解决的一个问题,以便让所有类型的学生都能从人工智能中受益。

接下来要做什么?

我相信,我们有更多的理由乐观地认为,我们可以在管理人工智能风险的同时最大限度地发挥其效益,但我们需要快速行动。

各国政府需要积累人工智能方面的专业知识,以便制定应对这一新技术的法律法规。他们需要应对错误信息和深度伪造、安全威胁、就业市场的变化以及对教育的影响。仅举一例:法律需要明确哪些用途的深度伪造是合法的,以及应该如何标注深度伪造,以便每个人都能明白他们看到或听到的东西是假的。

政治领导人需要具备与选民进行知情的、深思熟虑的对话的能力。他们还需要决定在这些问题上与其他国家合作的程度,而不是单打独斗。

在私营部门,AI公司需要在安全和负责任的前提下进行他们的工作。这包括保护人们的隐私,确保他们的人工智能模型反映人类的基本价值观,最大限度地减少偏见,让尽可能多的人受益,并防止技术被犯罪分子或恐怖分子利用。许多经济领域的公司都需要帮助其员工过渡到以AI为中心的工作场所,这样就不会有人掉队。而且,客户应始终知道他们是在与人工智能还是人类互动。

最后,我鼓励大家尽可能关注人工智能的发展。这是我们有生之年将看到的最具变革性的创新,健康的公共辩论将取决于每个人对这项技术本身、优点和风险的了解。人工智能将带来巨大的利益,而相信我们能够控制风险的最好理由就是我们曾经能够做到了。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1