当前位置:首页|资讯|OpenAI|人工智能

OpenAI和Meta因训练模型惹官司,美国联邦贸易委员会已着手调查

作者:DeepTech深科技发布时间:2023-07-23

原标题:OpenAI和Meta因训练模型惹官司,美国联邦贸易委员会已着手调查

在美国,我们看到了越来越明显的趋势,最能决定人工智能在美国的开发和使用限制的,可能是法院而不是政客。

最近,美国联邦贸易委员会(Federal Trade Commission)开始调查 OpenAI 是否违反了消费者保护法,因为它抓取了人们的在线数据来训练 ChatGPT。

与此同时,艺术家、作家和图片公司 Getty 正在起诉 OpenAI、Stability AI 和 Meta 等人工智能公司,指控他们违反了版权法,即在没有提供任何认可或付费的情况下训练模型。

如果这些诉讼最终被证明是成功的,它们可能会迫使 OpenAI、Meta、微软和其他公司改变人工智能的构建、培训和部署方式,使其更加公平。

这些诉讼还可以通过许可和版税制度,为艺术家、作者和其他人创造新的创收渠道,在他们的作品被用作人工智能模型的训练数据时,可以获得版税。

(来源:STEPHANIE ARNETT/MITTR | ENVATO, MIDJOURNEY (FACE))

人工智能的蓬勃发展重新激发了美国政治家通过人工智能特定法律的热情。然而,美国电子隐私信息中心的高级法律顾问本·温特斯(Ben Winters)表示,考虑到国会的分裂和科技公司的激烈游说,不太可能在 2024 年看到任何此类立法获得通过。

在创建新人工智能规则的尝试中,参议员查克·舒默(Chuck Schumer)的 SAFE 创新框架是最突出的,但是这则框架也没有包括任何具体的政策建议。

研究机构 AI Now Institute的总经理萨拉·梅耶·韦斯特(Sarah Myers West)表示:“(制定人工智能规则手册的)更直接的途径似乎是从现有法律开始。”而这意味着诉讼。

政治光谱上的诉讼

现有法律为那些声称自己权利受到人工智能公司损害的人提供了大量的武器。

在过去一年里,这些公司受到了一波诉讼的打击,最近一次来自喜剧演员兼作家莎拉·西尔弗曼(Sarah Silverman),她声称 OpenAI 和 Meta 从互联网上非法窃取了她的版权材料,以训练他们的模型。

她的说法与另一起集体诉讼中艺术家的说法相似,后者指控流行的图像生成人工智能软件未经同意使用了他们的版权图像。

微软、OpenAI 和 GitHub 的人工智能辅助编程工具 Copilot 也面临集体诉讼,声称其依赖“前所未有规模的软件盗版”,因为它是根据从网站上搜刮的现成的编程代码进行训练的。

与此同时,美国联邦贸易委员会正在调查 OpenAI 的数据安全和隐私做法是否存在不公平和欺骗性,以及该公司在训练其人工智能模型时是否对消费者造成了伤害,包括声誉损害。

一些真实的证据支持了这份担忧:2023 年早些时候,OpenAI 出现了安全漏洞,原因是系统中的一个漏洞导致用户的聊天历史和支付信息泄露。人工智能语言模型经常会生成不准确和虚构的内容,有时是关于真实人物的。

OpenAI 在公开场合至少摆出了迎合美国联邦贸易委员会调查的姿态。当我们联系该公司置评时,它分享了 CEO萨姆·奥特曼(Sam Altman)在推特上的一条帖子,他在帖子中表示该公司“有信心做到了遵守法律”。

非营利组织人工智能与数字政策中心(CAIDP,Center for AI and Digital Policy)的总裁兼创始人马克·罗藤伯格(Marc Rotenberg)表示,像美国联邦贸易委员会这样的机构可以将公司告上法庭,强制执行针对该行业的标准,并引入更好的商业实践。

CAIDP 于 2023 年 3 月向美国联邦贸易委员会提出投诉,要求其调查 OpenAI。梅耶·韦斯特表示,该机构有权有效地创建新的护栏,告诉人工智能公司能做什么、不能做什么。

联邦贸易委员会可以要求 OpenAI 支付罚款或删除任何非法获得的数据,并删除已使用非法收集数据的算法。在最极端的情况下,ChatGPT 可能会被迫下线。

这是有先例的:在发现减肥公司 Weight Watches 非法收集儿童数据后,其于 2022 年被迫删除了数据和算法。

其他政府执法机构也可能开始自己的调查。例如,美国消费者金融保护局表示,它正在调查人工智能聊天机器人在银行业的使用。如果生成式人工智能会在即将到来的 2024 年美国总统选举中发挥决定性作用,美国联邦选举委员会也可能进行调查。

与此同时,我们会看到诉讼的结果逐渐显现,尽管集体诉讼和美国联邦贸易委员会的调查可能至少需要几年时间才能真的诉诸法庭。

在美国耶鲁大学法学院专门研究知识产权、数据治理和人工智能伦理的常驻研究员迈赫塔布·可含(Mehtab Khan)认为,2023 年提起的许多诉讼将被法官驳回,原因是范围太广。

但它们仍然有重要的作用。律师们正在广撒网,看看会有什么结果。这为指向更精确的法庭案件铺垫了道路,这些案件可能会导致科技公司改变构建和使用人工智能模型的方式。

这些诉讼还可能迫使公司改进数据文档的实践。目前,科技公司对于到底哪些数据可以用于人工智能模型已经有了一个非常初步的想法。在记录他们如何收集和使用数据时,可能会揭露任何非法行为,但也可能有助于他们在法庭上为自己辩护。

历史在重演

在其他形式的监管生效之前,诉讼就先产生结果的事情并不罕见。事实上,这正是美国过去对待新技术的方式。

它的做法不同于其他西方国家。虽然欧盟试图积极预防人工智能造成的最严重危害,但美国的做法更为被动。

Fried Frank 律师事务所合伙人阿米尔·加维(Amir Ghavi)表示,美国在监管之会前先等危害或后果出现。在此前的三起版权诉讼中,他是开源图像生成人工智能 Stable Diffusion 背后公司 Stability AI 的代理人。

“这是一种亲资本主义的立场,”加维说,“它促进了创新。它让创造者和发明家拥有一种自由,可以更大胆地想象前所未有的解决方案。”

一家主营反垄断和集体诉讼律师事务所的创始人约瑟夫·沙弗里(Joseph Saveri)和律师马修·巴特里克(Matthew Butterick)表示,关于版权和隐私的集体诉讼可能会更多地揭示“黑匣子”人工智能算法是如何工作的,并为那些被人工智能模型使用作品了的艺术家和作者创造新的补偿方式。

生成式人工智能模型,使用从互联网上抓取的大量图像和文本数据集进行训练的。这不可避免地包括受版权保护的数据。作家、艺术家和程序员表示,未经同意就盗用其知识产权的科技公司应该给予赔偿。

虽然在这些诉讼中,所争论的人工智能技术可能是新的,但围绕它们的法律问题并非如此,巴特里克和沙弗里依赖的是“老式的”版权法。

他们以 P2P 音乐共享系统 Napster 为例。该公司因侵犯版权被唱片公司起诉,并引发了一场关于音乐公平使用的里程碑式案件。

巴特里克说,Napster 的和解为苹果、Spotify 和其他公司创建新的基于许可的交易模式扫清了道路。两人希望他们这次负责的诉讼也能为许可解决方案扫清道路。在该解决方案中,艺术家、作家和其他版权持有人也可以因其内容在人工智能模型中使用而获得版税,类似于音乐行业现有的歌曲采样系统。

同时,相关公司必须申请到明确的许可之后,才能在模型训练中使用受版权保护的内容。

根据美国《版权法》,科技公司可以“合理使用”互联网上公开的受版权保护的数据,这将允许他们在未经事先许可的情况下使用这些数据。

但是,版权持有者不认可这一点。《麻省理工科技评论》采访的专家一致认为,科技公司也可能因隐私和生物特征数据而面临诉讼,例如人们的面部图像或他们说话的片段。

人工智能虚拟化身程序 Lensa 背后的 Prisma Labs 公司已经因其收集用户生物特征数据的方式而面临集体诉讼。

沙弗里说:“对于社会变革而言,诉讼程序可能听起来很无聊。尽管如此,它还是非常有效的。”

支持:Ren


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1