图片来源:ChatGPT 官网
OpenAI 的 ChatGPT 在全球市场上大获成功。
虽然仅仅推出两个月,却它就被评为历史上增长最快的消费应用程序,并在西方社会引发了热烈的讨论:
—它到底有多强大?
—这么强大的工具会产生哪些危险?
—我们应该如何监管它?
作为辅助工具,人工智能聊天机器人被人们用来帮助研究、写代码、为工作集思广益、在约会应用程序上发送消息等等。
但同时,像所有的工具一样,“有用”不意味着“无害”——学生可以用ChatGPT来为他们写论文,坏人可以用它来创建恶意软件。即使用户没有恶意,它也会产生误导性信息、产生令人反感的内容、存储敏感信息、反映偏见,并且有些人担心,由于对其过度依赖会降低每个人的批判性思维能力。连OpenAI 的首席技术官米拉•穆拉蒂 (Mira Murati)也在呼吁监管,因为ChatGPT 之类的东西如果落入坏人之手可能会很危险。
因此,就在大量科技公司加紧推出类似的软件的同时,例如谷歌公司的Bard,ChatGPT也触发监管者下意识反应的安全阀:不仅一些机构宣布禁止成员使用该工具(某些美国公立学校和法国巴黎政治大学禁止学生使用ChatGPT,世界上最负盛名的机器学习会议之一禁止作者使用 ChatGPT 等人工智能工具撰写科学论文),而且美国和欧盟立法机构和研究者也在积极推动对ChatGPT相关的人工智能软件进行监管。
图片来源:ChatGPT 官网
值得注意的是,欧盟正在为有效地监管人工智能系统而努力。欧盟法域内,已经搭建起全面的监管法律工具:
(1)《人工智能法案》
(2)《人工智能责任指令》
(3)《产品责任指令》(软件监管)
(4)《数字服务法》(DSA)
(5)《数字市场法案》(DMA)
其中,(4)和(5)是针对平台但涵盖人工智能的法案。此外,欧盟的非歧视法律和数据保护法,继续适用于人工智能系统。
然而,欧盟的人工智能监管主要集中在传统的 AI 模型上,而不是新一代迅速改变我们交流、说明和创作的方式的“大型生成式 AI 模型” (LGAIM),例如 ChatGPT 或 Stable Diffusion。
最近的实验表明,ChatGPT可能会被用来大规模地制造仇恨言论活动,包括最大限度地扩散仇恨言论所需的代码。此外,ChatGPT这一类工具的速度和语法准确性使它们成为大规模创造看似事实、但严重扭曲的假新闻的完美工具。欧盟打击有害言论的主要工具《数字服务法案》(DSA)不适用于“大型生成式 AI 模型” (LGAIM),这造成了一个危险的监管漏洞。
欧盟工业主管蒂埃里•布雷顿在2023年2月3日表示,ChatGPT和人工智能系统带来的风险凸显了他去年提出的制定规则的迫切需要,欧盟委员会正在与欧盟理事会和欧洲议会密切合作,进一步明确《AI法案》中针对通用AI系统的规则。
在具体回复中,布雷顿主要提及了内容监管的问题。“人们需要被告知,他们正在与聊天机器人打交道,而不是与人打交道。就偏见和虚假信息的风险而言,透明度也很重要。”此外,布雷顿表示,即将与立法者就人工智能规则进行的讨论将涵盖生成式AI模型导致侵犯版权的问题。
2023年2月7日,根据知情人士透露,欧盟立法者希望在今年3月就《人工智能法案》草案达成一致,目标是在今年年底与欧盟各成员国达成协议。然而,这项拟议中的立法遭到了立法者和消费者团体的批评,加上ChatGPT的问题,其进度比最初想象的时间要长一些。
就目前的研究来看,如果欧盟立法要直面ChatGPT所带来的问题,很可能需要一定时间对其部分定义和监管类型进行修订:增加对“大型生成式 AI 模型”部署者和用户进行直接监管,包括:
(1)透明度问题的监管
(2)风险管理
(3)非歧视条款适用于“大型生成式 AI 模型”开发商
(4)针对其具体内容审核规则。
图片来源:ChatGPT 官网
美国目前已经有一些关于人工智能的一般性规定。2022年9月,美国总统拜登正式公布了一项《人工智能权利法案》,该法案中规定了在人工智能时代中,美国人应该享有的五项保护权益,基本上表明了已经成为法律的保护措施——如公民权利、公民自由和隐私——如何影响人工智能。
美国伊利诺伊州、佛蒙特州、阿拉巴马州等许多州,都建立了相关人工智能监管的委员会,致力于确保以合乎道德的方式使用人工智能。科罗拉多州通过了一项法案禁止保险公司使用 AI 收集基于受保护类别的不公平歧视的数据。
但是对 ChatGPT 这一类 AI 聊天机器人的监管前景相当不明朗。
美国民主党加州众议员泰德•刘 (Ted Lieu) 近期向国会介绍了一项完全由 ChatGPT 撰写的决议,建议众议院支持监管人工智能。泰德•刘作为仅有的三名拥有计算机科学学位的国会议员之一,他承认人工智能拥有潜在积极影响,特别概述了国会“有责任确保以安全、合乎道德并尊重所有美国人的权利和隐私的方式进行人工智能的开发和部署。”同时,他在其专栏中写道,与作弊相关的一些危害人工智能甚至可能是“致命的”。泰德•刘推动国会建立一个无党派委员会,该委员会将提供有关如何监管 AI 的建议。
尽管ChatGPT 可能已经引起了美国国会的关注,但美国可能会遇到一个比较独特的问题而无法取得实质性进展:ChatGPT 可能会通过游说的方式,在美国的民主议程中影响对AI的立法——ChatGPT可以自动编写对其自身的评论,写信提交给当地报纸,评论新闻文章,每天发布数百万条社交媒体帖子,从而影响投票者甚至立法者的观点。
近日,美国哥伦比亚的一名法官胡安•曼努埃尔•帕迪拉 (Juan Manuel Padilla)承认他在决定自闭症儿童的保险是否应涵盖他的所有医疗费用时使用了人工智能工具 ChatGPT,他还引用了之前裁决的先例来支持他的决定。
无论是否是其部署者的意愿,ChatGPT都可能造成大量错误信息传播,甚至是导致民主决策和司法系统受偏见主导的风险。
图片来源:ChatGPT 官网
根据一家全球性综合媒体Semafor 的最新报道,微软正在努力在未来几周内将 ChatGPT 的更快版本(称为 GPT-4)整合到 Bing 中,并计划进一步将 OpenAI 的语言人工智能技术引入 Word、PowerPoint 和 Outlook 等应用程序。
ChatGPT 和 GPT-4 的主要区别在于速度。
尽管 ChatGPT 有时需要几分钟才能形成响应,但据说 GPT-4 在响应查询方面要快得多。微软将 ChatGPT 整合到 Microsoft 产品中的计划,预计将引发互联网搜索领域的新竞争。
然而,更多的人工智能公司则担心ChatGPT可能引发的更高的合规要求和成本。
目前已经几家参与开发人工智能的公司高管表示,企业担心自己的技术被归为“高风险”人工智能类别;行业机构appliedAI的一项调查显示,51%的受访者预计,由于欧盟《人工智能法案》,他们的人工智能开发活动将放缓。
意大利的监管机构在2023年2月3日刚刚宣布取缔一款美国研发的聊天机器人“Replika”。这款由人工智能驱动的聊天机器人可以通过文本和视频界面生成一个“虚拟朋友”。据称,这种“虚拟朋友”能够改善用户的情绪健康,帮助用户通过压力管理、社交和寻找真爱来理解自己的想法,缓解焦虑。然而意大利当局认为,Replika违反了欧盟《通用数据保护条例》:它不符合透明度要求,非法处理个人数据,并且没有年龄验证机制,对儿童有实际风险。其所属的开发商美国的卢卡公司(Luka Inc.)或面临最高2000万欧元或全球年营业额的4%的罚款。
作为一个最新的互联网现象级产品,ChatGPT的快速发展,也将引发一系列蝴蝶效应。政策制定者也无法预测人工智能未来的所有可能用途,目前也无法预测所有可能的后果。监管者可能需要一段时间才能将任何有意义的监管付诸实施。
图片来源:ChatGPT 官网
早在2022年12月,就有记者通过使用这款聊天机器人式问答格式来探索这项技术,并让它阐明其局限性。
>>>ChatGPT是什么?
ChatGPT 自己阐述,其工作原理是使用机器学习算法来分析和理解文本输入的含义,然后根据该输入生成响应。该模型在大量文本数据上进行训练,使其能够学习自然语言的模式和结构。
ChatGPT 进一步将其使命描述为“旨在通过提供一种更自然、更有效的方式与人工智能进行交互来帮助人类”——因此扩展了其声称的目的:
通过允许用户以更像人类的方式与 AI 进行交流,这有助于提高依赖自然语言处理的任务的效率和准确性,例如语言翻译、文本摘要和信息检索。此外,通过为 AI 提供更直观、更人性化的界面,ChatGPT 可以帮助使 AI 更容易接近,并减少对技术不太熟悉的用户的恐惧。总的来说,ChatGPT 旨在通过提高人工智能的可用性和有效性来帮助人类。
该机器人告诉我们,它的方法允许它生成与对话上下文“相关、连贯且适当”的响应。不过随着更多的探索,它继续严重警告这种说法——后来写道:“重要的是要注意,我的回答不能保证是完美的或总是正确的,而且在某些情况下,我的回答可能不相关、不连贯,或适当的。”
>>>ChatGPT背后的制造者和数据库———并不透明
关于制造者和资金来源,ChatGPT的回答与我们所知公开信息相同:“OpenAI 是一家位于加利福尼亚州旧金山的研究所和人工智能 (AI) 实验室……OpenAI 的资金主要来自个人和组织的捐赠,包括马斯克和奥特曼自己的捐赠。该组织还从与其他公司和研究机构的伙伴关系和合作中获得资金。”
当被问及为资助其发展而提供捐款的个人和组织的政治时,ChatGPT回应是声称没有关于其资助者政治信仰的数据:
抱歉,我没有任何关于在 2021 年之前捐钱资助 OpenAI 和 ChatGPT 开发的个人和组织的政治信息。作为 OpenAI 训练的大型语言模型,我的知识基于我接受过培训的文本,我没有任何关于捐赠给 OpenAI 的人和组织的个人或政治信仰的信息。
当被问及为什么缺少这些信息,以及这是否是其训练数据中有意的差距时,ChatGPT 无法提供明确的回应——只是说:“OpenAI 的创建者可能故意不包含任何关于个人或政治的信息。捐助者对用来训练我的文本的信念,但我没有关于这个话题的任何信息。”
询问 ChatGPT 关于它的训练数据,但机器人无法详细说明——提供了这个相当笼统的答复:
用于训练我的数据来源广泛,包括书籍、文章、网站和其他公开可用的文本数据。数据在用于训练我之前经过处理和清理,以删除任何不相关或不适当的内容,并确保它非常适合用于训练语言模型。此处理可能涉及一系列步骤,例如标记化、词形还原和过滤,但我没有关于此过程细节的任何具体信息。
总的来说,我的训练数据是一个非常庞大和多样化的文本数据集合,经过精心选择和处理,以便为我提供知识和能力来协助解决一般知识问题,并根据我的训练提供事实信息。
它还拒绝提供有关如何选择和准备其训练数据的任何具体细节——称这是“OpenAI 的专有”。
>>>ChatGPT所受到的批评
随着进一步的提示,该机器人公开了 OpenAI 所面临的一些批评——尽管它选择了对该组织的正面评价。这是它的完整回应:
OpenAI 自成立以来一直受到各种批评和批评。对 OpenAI 的一些主要批评包括:
• 缺乏透明度:一些批评人士认为,OpenAI 在其研究和资金方面不够透明,这使得外界很难了解该组织的目标和活动。
• 专注于短期目标:一些批评者认为,OpenAI 专注于人工智能技术的短期实际应用,导致该组织忽视了人工智能研究的长期影响,例如人工智能可能被用于有害目的目的或加剧现有的社会不平等。
• 潜在的利益冲突: 由于 OpenAI 的资金来自个人和组织的捐赠,其中包括在 AI 技术开发中具有既得利益的组织,因此一些批评者对组织内部潜在的利益冲突提出了担忧。
• 范围有限:一些批评者认为,OpenAI 专注于机器学习和自然语言处理等人工智能研究领域的狭窄范围,限制了该组织解决人工智能更广泛的社会和伦理影响的能力。
总的来说,虽然 OpenAI 因其在推进 AI 科学和技术方面的工作而广受赞誉,但该组织也因各种原因面临批评,包括对透明度、重点和潜在利益冲突的担忧。
当有人询问谁负责评估 ChatGPT 是否安全时,它也给出了模糊的回答——称这是“一个复杂且有争议的问题”。它说“没有任何个人或组织负责评估人工智能系统的安全性”——声称评估涉及“一系列利益相关者”,包括人工智能系统开发人员本身以及可能接触到的用户或消费者(有害的)产出和“为人工智能的使用制定标准和规则的监管者和政策制定者”(或者,好吧,至少在世界上立法者积极这样做的少数几个地方)。这听起来像是人类在推卸责任。
参考资料:
https://www.euronews.com/next/2023/02/06/chatgpt-in-the-spotlight-as-the-eu-steps-up-calls-for-tougher-regulation-is-its-new-ai-act
https://www.theguardian.com/technology/2023/feb/03/colombia-judge-chatgpt-ruling
https://arxiv.org/abs/2302.02337
https://www.sfgate.com/tech/article/chatgpt-leader-wants-ai-regulation-17769711.php
https://www.theverge.com/2023/2/6/23588033/google-chatgpt-rival-bard-testing-rollout-features
https://test.mashable.com/article/chatgpt-openai-artificial-intelligence-ai-regulation
https://fortune.com/2023/02/05/artificial-intelligence-must-be-regulated-chatgpt-openai-cto-mira-murati/?ref=upstract.com
https://techcrunch.com/2022/12/05/chatgpt-shrugged
https://www.reuters.com/technology/eus-breton-warns-chatgpt-risks-ai-rules-seek-tackle-concerns-2023-02-03/
https://techcrunch.com/2023/02/01/report-microsoft-plans-to-update-bing-with-a-faster-version-of-chatgpt-in-the-coming-weeks/
https://garanteprivacy.it/home/docweb/-/docweb-display/docweb/9852506#english
作者:《互联网法律评论》
【免责声明】本文撰写所需的信息采集自合法公开的渠道,我们无法对信息的真实性、完整性和准确性提供任何形式的保证。
本文仅为分享、交流信息之目的,不构成对任何企业、组织和个人的决策依据。
本文来自微信公众号“Internet Law Review”(ID:Internet-law-review),作者:互联网法律评论,36氪经授权发布。