鞭牛士报道,3月16日消息,据外电报道,OpenAI 是一家颇具影响力的人工智能研究实验室,背后有 ChatGPT 和 Sora 等开创性工具,在最近接受其首席技术官 Mira Murati 采访后,OpenAI 发现自己陷入了困境。
此次采访由《华尔街日报》记者 Joanna Stern 主持,重点关注了 OpenAI 的最新图像(或者更确切地说是视频)生成系统Sora。
人们的担忧集中在可能滥用受版权保护的作品来训练人工智能模型,以及OpenAI 在数据实践方面缺乏透明度。
Sora的训练数据有问题
争议的核心在于训练数据的问题,即用于训练人工智能模型的海量数据集。
当被问及 Sora 使用的数据来源时,Murati 给出了标准答案:该模型已根据公开可用且许可的数据进行了训练。
然而,进一步的探索揭示了 Murati 对该数据集的具体细节的犹豫和不确定性。
这一回应引起了艺术家、摄影师和知识产权专家的警惕。人工智能图像生成系统在很大程度上依赖于摄取大量图像,其中许多图像可能受版权保护。Sora 训练数据的不明确性引发了人们对 OpenAI 是否充分保护内容创作者权利的质疑。
后来承认使用 Shutterstock
Murati 最初拒绝解决 Shutterstock 图片是否是 Sora 训练数据集的组成部分,这更是火上浇油。直到采访结束后,穆拉蒂才在《华尔街日报》添加的脚注中确认使用了 Shutterstock 的图片库。
这一确认与 OpenAI 面向公众的公开可用和许可数据的立场相矛盾,并表明其试图隐瞒潜在有问题的采购实践。
Shutterstock 和 OpenAI 建立了合作伙伴关系,授予 OpenAI 使用 Shutterstock 图像库来训练 DALL-E 2 和可能的 Sora 等图像生成模型的权利。
作为回报,Shutterstock 贡献者(图像出现在平台上的摄影师和艺术家)在他们的作品被用于开发这些 AI 模型时会获得报酬。
公关噩梦展开
可以肯定地说,大多数公关人员不会认为这次采访是公关杰作。
Murati 的缺乏明确性是在 OpenAI 的敏感时期出现的,该公司已经面临重大版权诉讼,其中包括《纽约时报》提起的一项重大诉讼。
正如The Information 之前报道的那样,公众正在密切关注 OpenAI 涉嫌秘密使用 YouTube 视频进行模型训练等做法。从艺术家到政客等利益相关者都要求追究责任,穆拉蒂的回避只会火上浇油。
OpenAI 不透明的做法适得其反,将 Sora 的采访变成了一场公关灾难。、
透明度并不是无缘无故被讨论最多的话题
这一事件凸显了一个重要的事实:在人工智能世界中,揭露真相至关重要。OpenAI 的糟糕反应严重损害了公众的信任,并加剧了对其道德实践的质疑。Sora 的争议凸显了人工智能行业内要求加强问责的呼声日益高涨。
穆拉蒂不愿透露索拉训练数据的细节,这引发了不信任,并开创了危险的先例。
如果艺术家、创作者和公众要求不明确,道德争论和法律诉讼的可能性只会加剧。
这片土地上没有天使
虽然当前的大部分审查都集中在 OpenAI 身上,但重要的是要记住他们并不是游戏中的唯一参与者。
Facebook AI Research 的LLaMA 模型和谷歌的 Gemini也面临着训练数据源有问题的指控。
这并不奇怪,因为Business Insider 报道 称 Meta 已经承认使用 Instagram 和 Facebook 帖子来训练其人工智能模型。此外,谷歌对大片互联网的控制使他们能够无与伦比地访问潜在的培训数据,从而引发了有关同意和版权的类似道德担忧。
OpenAI 的 Sora 的情况只是更大难题中的一小部分。整个人工智能开发领域正面临着对其数据实践和潜在道德影响的审查。