上周早些时候,我和美国的一位政策教授聊天,她告诉我,身边许多学生和同事都在关注 GPT-4 和生成式人工智能,他们关心的是:他们应该读什么资料?应该在上面投入多少精力?
她想知道我是否有什么建议,并问我认为所有这些新的技术发展对立法者而言意味着什么。我花了几天时间思考、阅读、和专家们讨论这个问题,现在我把我的发现整理成了这篇文章。
虽然 GPT-4 大出风头,但它只是过去几个月里众多备受瞩目的生成式人工智能工具之一:谷歌、英伟达、Adobe 和百度都宣布了他们自己的生成式人工智能项目。简而言之,所有人都在关注生成式人工智能。尽管这项技术并不新鲜,但完全理解它的政策影响还需要数月的时间。
由 OpenAI 前不久发布的 GPT-4 是一个多模态的大型语言模型,它使用深度学习来预测句子中的单词。它可以生成非常流畅的文本,并且可以对图像和单词组成的提示给出反馈。对于付费客户而言,他们可以体验 GPT-4 驱动的 ChatGPT,后者已经成为了一款商业应用。
最新的 GPT-4 引起了轰动,比尔·盖茨(Bill Gates)在上周称它是“革命性的”。然而,OpenAI 也因没有足够披露模型训练技术细节和偏见评估而受到批评。
尽管令人兴奋,但生成式人工智能却带来了巨大的风险。这些模型是在互联网这个充满不良内容的“数据库”上训练的,这意味着它们经常会产生种族主义和性别歧视的输出内容。它们也经常编造一些事情,并用信誓旦旦的语气来陈述。从传播虚假信息的角度来看,这可能是一场噩梦,它可以让骗局更有说服力、细节更丰富。
生成式人工智能工具也会对人们的安全和隐私构成潜在威胁,而且它们很少顾及版权问题。我们已经看到一些公司,因为其生成式人工智能工具生成的作品涉嫌剽窃他人作品而被起诉。
美国布鲁克斯学会治理研究研究员亚历克斯·恩格勒(Alex Engler)研究了政策制定者应该如何考虑这个问题,他看到了两种主要的风险类型,分别是来自恶意应用的危害和来自商业应用的危害。恩格勒在一封电子邮件中指出,恶意使用生成式人工智能技术,如炮制虚假信息、自动仇恨言论和尝试欺诈,恰好与内容审核的原则相重合,而解决这些风险的最佳方法很可能是通过平台来治理。
迄今为止,关于生成式人工智能的政策讨论主要集中在第二类:该技术商业应用的风险,比如编程或广告。到目前为止,美国政府——主要是联邦贸易委员会(FTC,Federal Trade Commission)——已经采取了一系列谨小慎微但意图明确的行动。2022 年 2 月,FTC 向企业发布了一份警告声明,敦促不要就它们无法证实的技术能力发表声明,比如夸大人工智能的能力。上周,在 FTC 官方网站上,它对企业在使用生成式人工智能时应该考虑的风险使用了更强硬的措辞。
官方博文写道:“如果你开发或提供一种合成媒体或生成式人工智能产品,那么就要在设计及之后所有阶段考虑合理的、可预见的——通常是明显的——它可能被滥用于欺诈或造成其他伤害的方式。然后扪心自问,这些风险是否高到你根本不应该提供这种产品。”
(来源:ARI LILOAN)
美国版权局还推出了一项新举措,旨在处理围绕人工智能、归因和知识产权的棘手政策问题。
与此同时,欧盟正在维持其作为世界科技政策领导者的地位。2023 年年初,我的同事梅丽莎·海基拉(Melissa Heikkilä)写到了欧盟试图通过人工智能法案(AI Act)的努力。这是一系列规则,可以阻止公司在不披露其内部运作方式的情况下公开发布模型,而这正是一些人在 OpenAI 发布 GPT-4 时指责它的原因。
欧盟打算将人工智能技术应用领域分为高风险和低风险。高风险领域包括招聘、法律、金融等应用,低风险应用包括电子游戏和垃圾邮件过滤器等。欧盟还要求公司对更敏感的用途提高透明度。OpenAI 的技术正在广泛且快速地应用,它已经对这一事实产生了一定的担忧。事实上,该公司的 CEO 山姆·奥特曼(Sam Altman)曾公开表示,他也有许多同样的担忧。然而,该公司仍未披露有关 GPT-4 的关键数据。
对于华盛顿、布鲁塞尔、伦敦和世界其他地方的政策人员来说,接受“生成式人工智能已经存在”的这一既定事实是很重要的。是的,我们看到了大量的炒作,但最近人工智能技术的进展与它们带来的风险一样真实和重要。
支持:Ren
原文:
https://www.technologyreview.com/2023/03/27/1070285/early-guide-policymaking-generative-ai-gpt4/