出品|搜狐科技
作者|郑松毅
4月6日消息,OpenAI官方在twitter发帖《Our approach to AI safety》并表示,“确保AI系统建设、部署、及使用的安全性对我们的使命来说是至关重要的。”
近日,OpenAI研发的ChatGPT在实际应用的过程中可谓是“漏洞百出”,先是造成三星电子机密信息外泄,再是其编造法学教授性骚扰丑闻,AI应用的安全性与可靠性受到了业界广泛质疑。
OpenAI也是在意识到了AI发展带来的安全风险后及时发布了《AI安全方法声明》,从六个方面介绍了AI安全部署方法,其中包括:
构建越来越安全的人工智能系统:在发布新系统之前,会严格的测试,聘请外部专家提供反馈,通过人工反馈强化学习等技术改进模型的行为,并构建安全监控系统;
从实际使用中学习以改进保障措施:实验室中可学到的东西是有限的,尽管进行了广泛的研究和测试,但仍无法预测人类行为的所有方式。因此,需要通过自己的服务和API提供强大的模型,以便直接将技术构建到应用程序中,监控滥用行为并采取行动;
儿童保护:要求用户必须年满18岁,或年满13岁在父母同意的情况下使用。此外,不允许技术被用于生成仇恨、骚扰、暴力或成人内容等伤害儿童的信息类别。OpenAI官方数据显示,最新的GPT-4模型响应禁止内容请求的可能性降低了82%;
尊重隐私:大型语言模型的语料数据库包括公开可用的内容、许可内容。但不会利用数据做销售交易、建立个人档案等行为。虽然OpenAI的训练数据库包含一些从公共网络上获取的个人信息,但会在数据处理阶段集中删除个人信息,调整模型以拒绝对私人信息的请求,并会对个人提出的从系统中删除个人信息的请求及时响应。这些步骤最大限度地减少了模型可能生成包含私人信息的可能性;
提高事实准确性:当前大模型是根据之前训练的模式预测下一系列单词表达,包括用户提供的文本输入,但某些情况下表达是不准确的。提高事实准确性是当前重点目标,通过利用用户对被标记为不正确的输出数据做出的的反馈,提高GPT-4模型的事实准确性。OpenAI表示,GPT-4生成事实内容的准确性比前版本高40%;
持续的研究和参与:提高人工智能的安全性和能力应该齐头并进,解决AI安全问题最实用的方法是投入更多的时间和资源来研究有效的缓解战术。下一阶段将更谨慎地创建和部署功能更强大的模型,并将随着人工智能系统的发展继续加强安全预防措施。解决安全问题还需要广泛地辩论、实验和参与,共建一个安全的人工智能生态系统。
OpenAI安全声明发出后,引发社会各界人士热议,大多数网友表示OpenAI发布的安全声明给予了人们对于AI应用的信心,并希望其可以持续优化。但包含著名心理学家Geoffrey Miller在内的一派人士表示此次OpenAI发表的安全声明规避了部分重要安全问题,包括种族歧视及AI自我意识控制,并表示规避问题并不是解决问题的好方法。