本周的OpenAI, 似乎并未辜负其名称中的“开放”字样。
近日,OpenAI虽然没有开源任何新模型,但该公司非常之“清流”,一改铜臭的商业味道。
OpenAI加入开放性组织推出内容真实性工具
5月7日,该公司发布公告加入C2PA(致力于开发确定内容来源和真实性的技术规范,微软和Adobe也是成员之一,非营利性组织)的贸易组织的指导委员会,并表示这样做的目的是为了帮助人们验证用于创建或编辑多种数字内容的工具,并创建“专门帮助人们识别由我们自己的工具创建的内容的新技术”。
直白的解释,即,OpenAI希望与该领域的其他公司(包括竞争对手)合作,开发用于标记AI生成的图像、视频和其他内容的工具和技术,从而使观看者能够追溯到其来源并避免混淆他们用于现实世界的镜头和照片。
值得注意的是,C2PA这个组织发布过许多开源技术标准,所以OpenAI的接下来的好技术非常有望开源出来给开发者使用。
此外,就在同一天,OpenAI宣布将推出一款工具,可以检测出由其“文本到图像生成器Dall-E 3创建的图像。OpenAl表示,在内部测试中,该工具在约98%的时间内能够正确识别出由Dall-E 3创建的图像,并且可以处理一些常见的修改,如压缩、裁剪和饱和度变化等。
OpenAl还表示,计划添加防篡改水印,对照片或音频等数字内容进行标记,且这些标记很难被删除。
OpenAI 要为行业立规矩
这还不够,OpenAI开始在行业内立内容标准了!
其官网博客在7日宣布OpenAI 正在开发媒体管理器,该工具将使创作者和内容所有者能够告诉用户他们拥有什么,并指定他们希望如何将自己的作品纳入或排除在机器学习研究和训练之外。接下来,他们计划推出更多选择和功能。
这将需要尖端的机器学习研究来构建有史以来第一个同类工具,以帮助我们识别多个来源的受版权保护的文本、图像、音频和视频,并反映创作者的偏好。
“在开发媒体管理器时,我们正在与创作者、内容所有者和监管机构合作。我们的目标是在 2025 年之前推出该工具,并希望它能为整个人工智能行业树立标准。”
紧接着,5月8日,OpenAI公开分享了模型规范Model Spec,次日掌舵者Sam Altman评论道:
Model Spec规定了该公司模型如何运行,之后会继续倾听、讨论并调整。“我认为明确某件事究竟是BUG、还是决策造成的,这将是非常有用的。”
据悉,这个“模型规范”,是一个框架文件,旨在塑造 OpenAI 应用程序编程接口 (API) 和 ChatGPT 中使用的人工智能模型的行为,并在此基础上使用网络表单征求公众反馈,开放直到5月22日。
Altman表示,希望在社会最终同意的一些严格界限内,让用户对AI拥有很大的控制权。
一系列的动作都聚焦在一件事情上:给AI的使用行为立规矩,旨在解决AI技术加剧或带来的虚假信息、深度伪造、内容版权等问题。
为AI大模型立“宪法”
OpenAI 表示,这份工作文件的发布是其更广泛使命的一部分,即确保人工智能技术以对所有用户有益且安全的方式运行。
当然,说起来容易做起来难,而且这样做很快就会陷入长期悬而未决的关于技术、智能系统、计算、工具和更广泛的社会的哲学辩论的领域。
正如 OpenAI 在其宣布 Model Spec 的博客文章中所写:
“即使一个模型的目的是对用户广泛有益和有帮助,这些意图在实践中也可能会发生冲突。例如,安全公司可能希望生成网络钓鱼电子邮件作为合成数据,以训练和开发保护其客户的分类器,但如果诈骗者使用相同的功能,则会有害。”
通过分享初稿,OpenAI 希望公众就人工智能开发中涉及的道德和实际考虑因素进行更深入的对话。在接下来的两周内,用户可以通过 OpenAI网站上的模型规范反馈表提交意见。
之后,OpenAI 表示将在“明年分享有关模型规范变更的最新信息、对反馈的回应以及其在塑造模型行为方面的研究进展情况”。
尽管 OpenAI 在今天宣布模型规范的博文中并未具体说明它究竟如何影响其人工智能模型的行为,以及模型规范中写入的一些原则是否包含在“系统提示”或“预先提示”中用于在人工智能系统向公众提供服务之前对其进行调整——但可以肯定的是,它对其产生了重大影响。
其实,Model Spec的推出,在某种程度上类似于竞争对手Anthropic AI 的人工智能制定Claude“宪法”的路数,Antropic最初只是将其作为一个主要的差异化,但在一段时间内并未广泛强调这一点。
AI行为框架三定律
模型规范围绕3个主要组成部分构建:目标、规则和默认行为。这些元素是指导人工智能模型与人类用户交互的支柱,确保它们不仅有效而且遵守道德标准。
目标:该文件制定了广泛的总体原则,旨在为开发人员和最终用户提供帮助。其中包括帮助用户有效地实现他们的目标,考虑对不同利益相关者的潜在影响,以及坚持 OpenAI 在社区中积极反映的承诺。
规则:为了驾驭人工智能交互的复杂环境,模型规范建立了明确的规则。这些要求遵守适用法律、尊重知识产权、保护隐私,并严格禁止制作不安全工作 (NSFW) 内容。
默认行为:指南强调了假设良好意图、必要时提出澄清问题以及尽可能提供帮助但不过分的重要性。这些默认值旨在促进不同用户和用例的不同需求之间的平衡。
AI 布道者、宾夕法尼亚大学沃顿商学院教授 Ethan Mollick 等人将其比作科幻作家阿西莫夫于 1942 年提出的虚构“机器人三定律”。
质疑声音:模型功能被限制、示例回答欠妥
当然,这个模型规范当然还远远不能称为完美,有网友甚至对于模型规范表示遗憾:因为这会阻止模型充分发挥其功能。
比较尴尬的地方就在于,本身在该示范中的一个示例就出问题了。科技作家Andrew 在 X 上指出,模型规范中包含的 OpenAI 的一个示例显示,一个假设的“AI 助手”对用户关于地球是平的错误说法做出了让步,并且没有提出疑问。
同时,还有人对当前 OpenAI 模型规范如何导致 ChatGPT 或其他 AI 模型行为的实现提出了质疑。
一项马拉松式的公开工程
OpenAI 认识到模型规范是一个不断发展的文档。它不仅反映了组织当前的实践,而且还是一个动态框架,将根据正在进行的研究和社区反馈进行调整。
这种协商方法旨在收集不同的观点,特别是来自政策制定者、值得信赖的机构和领域专家等全球利益相关者的观点。
收到的反馈将在完善模型规范和塑造未来人工智能模型的发展方面发挥至关重要的作用。
OpenAI 计划向公众通报从这一反馈循环中获得的变化和见解,强化其对负责任的人工智能开发的承诺。
OpenAI是裁判,也是运动员?
无论如何,本周一系列开放的动作或许在透露出OpenAI在处于某种转折点上。美大选将近,GPT-5的推出备受大家关注。“大模型行为准则”的推出,似乎也标志着某种秩序即将悄然而至。
正如SamAltman所说,通过明确定义人工智能模型应如何按照其模型规范行事,并不断寻求全球社区的意见,希望OpenAI 可以营造这样一个环境,让AI能够作为社会的积极力量蓬勃发展。
当然,虽然OpenAI自身也在因为同样的事情在面临着诉讼和挑战,比如:对未经明确同意对艺术家作品而进行训练而饱受批评。
医者能否自医?裁判还是运动员?则是另一个值得探讨的话题了。
参考链接:
https://openai.com/index/introducing-the-model-spec
https://venturebeat.com/ai/openai-to-steer-content-authentication-group-c2pa-pledges-to-label-sora-videos-as-ai/