多知网8月1日消息,OpenAI宣布向部分ChatGPT Plus用户推出高级语音模式,并计划于秋季向所有ChatGPT Plus用户开放。新的音频功能将允许用户与ChatGPT对话并立即接收实时响应,也可以在ChatGPT说话时打断它,同时语音模式可分辨不同的语音语调所传达的信息。
使用过程中,它的声音会听起来更自然,并利用声音传达各种不同情绪。OpenAI还透露,GPT-4o可以感知用户声音中的情绪语调,包括悲伤、兴奋或者唱歌。
目前GPT-4o语音模式可使用四种预设声音,Juniper、Breeze、Cove和Ember,这些声音是与付费配音演员合作制作的。
新的语音模式由OpenAI的GPT-4o模型提供支持,该模型结合了语音、文本和视觉功能。
为了收集反馈,OpenAI最初向ChatGPT Plus的“一小部分用户”推出语音高级功能,但OpenAI表示,将在今年秋天向所有ChatGPT Plus用户开放。OpenAI将语音通话体验的推出时间从6月下旬推迟到7月,称需要时间达到发布标准。
目前,Alpha组的用户将在ChatGPT中收到提醒,并将收到一封邮件介绍如何使用
OpenAI也表示,已采用过滤器识别和阻止生成音乐或其他受版权保护的音频的请求,并将文本模型中使用的相同安全机制应用于GPT-4o,防止其违反法律,产生有害内容——“我们设置了护栏来阻止对暴力或受版权保护内容的请求。”
另据了解,视频和屏幕共享等更高级功能将在晚些时候推出。