近些天,对 OpenAI 来说,可谓是一个“多事之秋”。由于ChatGPT 及 GPT-4可能引发的安全问题,OpenAI 受到了来自外界的一些指责:
马斯克等上千人联名呼吁 “所有人工智能实验室应立即暂停训练比GPT-4更强大的大模型,这一时间至少为 6个月”
意大利监管机构封锁OpenAI聊天机器人ChatGPT
ChatGPT大面积封号
ChatGPT Plus 停售
4月6日,在最近遭遇到伦理质疑和监管方面的反弹之后,人工智能研究公司OpenAI终于给出了确保其技术安全的方案。该公司周三发文详细介绍了其方法,包括进行安全评估、提高事实准确性、保护儿童以及尊重隐私等。OpenAI声称,确保人工智能系统的安全构建、部署和使用对实现其使命至关重要。
01
构建越来越安全的人工智能系统
在发布任何新系统之前,我们都会进行严格的测试,征求外部专家的反馈意见,通过人工反馈的强化学习等技术来改善模型的行为,并建立广泛的安全和监控系统。
例如,在我们最新模型GPT-4完成培训后,花了6个多月的时间在整个公司进行测试,以使其在公开发布之前变得更安全、更一致。
我们认为,强大的人工智能系统应该接受严格的安全评估。需要监管来确保这些做法被采纳,我们正积极与各国政府就可能采取的最佳监管形式进行接触。
02
从实际使用中学习,以改进保障措施
在部署之前,我们努力防止可预见的风险,然而,我们在实验室中所能学到的东西毕竟有限。尽管进行了广泛的研究和测试,但我们无法预测人们使用我们技术的所有有益方式,也无法预测人们如何滥用这项技术。这就是为什么我们相信,随着时间的推移,从现实世界的实际使用中学习是创建和发布越来越安全人工智能系统的关键组成部分。
我们小心翼翼、按部就班地向更广泛的人群发布新的人工智能系统,并在吸取经验教训的基础上不断改进。
至关重要的是,我们认为社会必须有时间来调整和适应日益强大的人工智能,而且每个受到这项技术影响的人都应该在人工智能如何进一步发展方面拥有自己的发言权。迭代部署帮助我们将各类利益相关者引入到关于采用人工智能技术的对话中,而拥有这些工具的第一手使用经验显然十分重要。
03
保护儿童
我们安全工作的一个关键重点是保护儿童。我们要求用户必须年满18岁(或经父母批准年满13岁)才能使用我们的人工智能工具,并正在研究验证功能。
我们不允许我们的技术被用于生成仇恨、骚扰、暴力或成人等类别的内容。与GPT-3.5相比,我们的最新模型GPT-4对受限内容请求做出响应的可能性降低了82%,我们已经建立了一个强大的系统来监控滥用行为。GPT-4现在对ChatGPT Plus的用户开放,我们希望随着时间的推移让更多的人也能使用它。
我们已经做出了巨大的努力,尽量减少我们的模型产生伤害儿童内容的可能性。例如,当用户试图将儿童安全虐待材料上传到我们的图像生成工具时,我们会拦截并将其报告给国家失踪与受剥削儿童中心。
04
尊重隐私
我们的大型语言模型是在广泛的文本语料库上进行训练的,这些文本语料库包括公开可用的内容、获得授权的内容以及由人工审核人员生成的内容。我们不使用数据来销售我们的服务、做广告或建立人们的档案,而是为了让我们的模型对人们更有帮助。例如,ChatGPT通过与人进行更多对话来改进自己。
虽然我们有些训练数据中包括在公共互联网上可以获得的个人信息,但我们希望我们的模型了解世界,而非个人层面。因此,我们努力在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝对有关个人信息的请求,并响应人们从我们的系统中删除个人信息的请求。这些措施将我们的模型生成包含私人个人信息的响应的可能性降至最低。
05
提高事实准确性
如今的大型语言模型基于它们之前看到的模式(包括用户提供的文本输入)来预测接下来的下一系列词汇。但在某些情况下,下一个最可能出现的词汇实际上可能并不符合事实。
因此,提高事实准确性正成为OpenAI和许多其他人工智能开发商的一个重要关注点,我们正在取得进展。通过利用用户对被标记为不正确的ChatGPT输出的反馈作为主要数据来源,我们提高了GPT-4的事实准确性。与GPT-3.5相比,GPT-4生成事实性内容的水平提高了40%。
当用户注册使用该工具时,我们会尽量做到透明,以免ChatGPT可能提供错误回复。然而,我们认识到,要进一步降低幻觉的可能性,并教育公众了解这些人工智能工具目前的局限性,还有很多工作要做。
06
持续研究和参与
我们认为,解决人工智能安全问题的一个切实可行的方法,就是投入更多的时间和资源来研究有效的缓解和校准技术,并针对现实世界可能被滥用情况进行测试。
重要的是,我们还认为,提高人工智能的安全性和能力应该齐头并进。迄今为止,我们最好的安全工作就是与我们能力最强的模型合作,因为它们更善于遵循用户的指示,更容易被“引导”。
我们将越来越谨慎地创建和部署功能更强大的模型,并将随着人工智能系统的发展继续加强安全预防措施。
虽然我们等了6个多月才部署GPT-4,以更好地了解其功能、好处和风险,但有时可能需要更长的时间来提高人工智能系统的安全性。因此,政策制定者和人工智能提供商将需要确保人工智能的开发和部署在全球范围内得到有效监管,这样就没有人会为了领先而寻找捷径。这是一项艰巨的挑战,需要技术和制度创新,但我们渴望为此做出贡献。
解决安全问题还需要广泛的辩论、实验和参与,包括为人工智能系统的行为设置界限。我们已经并将继续促进利益相关者之间的合作和开放对话,以创建一个更安全的人工智能生态系统。