IT之家 6 月 10 日消息,OpenAI 在几个月内第二次就其文本转语音工具进行解释,并再次强调该工具目前并未大范围开放,且未来也可能不会。
图源 Pexels
“无论我们最终是否会大规模部署这项技术,让世界各地的人们理解这项技术的发展方向都非常重要,”OpenAI公司周五在其网站上发布的一份声明中表示,“这就是为什么我们想要解释模型的运作方式、我们如何将其用于研究和教育,以及我们如何围绕该技术实施安全措施的原因。”
据IT之家了解,去年年底,OpenAI 与一小部分外部用户分享了其“语音引擎”。该引擎利用文本输入和 15 秒的人声音频剪辑,即可“生成听起来自然的人声,并与原始说话人非常相似”。该工具可以创建以假乱真的多语言人物声音,当时该公司表示他们选择预览这项技术而非大规模发布,是为了“增强社会抵御能力”,以应对“越来越逼真的人工智能生成模型”带来的威胁。
作为这些努力的一部分,OpenAI 表示他们正在积极淘汰使用语音识别进行银行账户验证的方式,探索保护个人声音在人工智能中使用的政策,教育公众有关人工智能的风险,并加快开发跟踪视听内容的技术,以便用户识别他们是在与真人还是合成内容进行互动。
然而,尽管做出了上述努力,人们对这项技术的担忧仍然存在。美国总统拜登的人工智能负责人布鲁斯・里德 (Bruce Reed) 曾表示,声音克隆技术是他夜不能寐的原因之一。美国联邦贸易委员会 (Federal Trade Commission) 今年 3 月表示,诈骗分子正在利用人工智能技术来提高他们欺诈行为的可信度,他们使用声音克隆工具,使得人们更难区分人工智能生成的声音和人类的声音。
OpenAI 在周五更新的声明中试图缓解这些担忧,“我们继续与来自政府、媒体、娱乐、教育、民间社会等领域的美国和国际合作伙伴接触,以确保我们在构建过程中纳入他们的反馈。”该公司还指出,一旦“语音引擎”配备了其最新模型 GPT-4o,它也将带来新的威胁。该公司表示,他们内部正在积极地“对 GPT-4o 进行‘红队测试’,以识别和解决来自社会心理学、偏见和公平以及错误信息等领域的已知和未知风险。”