当前位置:首页|资讯|OpenAI|阿尔特曼

OpenAI推出新一代AI模型GPT-4o 音频视频理解能力尚无敌手

作者:IT指北针发布时间:2024-05-20

5月14日消息,据外媒报道,在今日凌晨1点开始的春季更新中,OpenAI宣布了他们新一代的旗舰模型GPT-4o,可以利用语音、视频和文本信息进行实时推理。

从OpenAI在官网上公布的信息来看,GPT-4o中的“o”源自“omni”,也就是全面、全能的意思,朝着更自然的人机交互又迈出了关键一步。

而GPT-4o也的确如名字中“omni”的全能一样,是一款能力更全面的大语言模型,打通了文本、音频和图像,接受任何文本、音频和视频的组合输入,并生成文本、音频和视频的组合输出。

OpenAI在官网上披露,GPT-4o在英文文本和代码中的表现与GPT-4 Turbo相当,但在非英文文本上的能力大幅提升,在视频和音频的理解上,GPT-4o要明显强于当前的其他模型。

在官网上,OpenAI提到,在GPT-4o之前,通过语音模式同ChatGPT对话时,有较长时间的延迟,GPT-3.5平均为2.8秒,GPT-4平均为5.4秒。而由三个独立模式组成的语音模式,也丢失了大量信息,无法直接识别音调、多个说话者或背景噪音,也无法输出笑声、歌唱或表达情感。

但在GPT-4o中,OpenAI训练一个跨文本、音频和视频的端到端新模型,所有的输入和输出都是由同一神经网络处理,GPT-4o也是他们首个整合了个文本、音频和视频模式的模型,

能力更全面的GPT-4o,响应速度也更快,最快232毫秒响应音频输入,平均响应时间为320毫秒,与人类在对话中的响应速度相当。

除了更强、更全面的能力,OpenAI也在推动GPT-4o更广泛的应用。GPT-4o的文本和图片功能自推出之日起就向ChatGPT推送,ChatGPT用户可免费使用,ChatGPT Plus用户的数据量上限将是免费用户的5倍,新版本的音频模式将在未来几周向ChatGPT Plus用户推送。

OpenAI周二凌晨1点开始的春季更新,是由CTO Mira Murati主持进行,登台的还有两位研发人员,公司CEO萨姆•奥特曼并未登场。

不过,未现身直播的萨姆•奥特曼,在社交媒体上对GPT-4o也进行了推广。他在社交媒体上就表示,他们最新的模型GPT-4o,是他们到目前为止最好的模型,它很聪明、速度很快,是天然的多模态。

萨姆•奥特曼在社交媒体上也提到,GPT-4o对所有的ChatGPT用户免费,而此前GPT-4级别的模型仅对按月付费的用户免费。

而值得注意的是,OpenAI在周二凌晨推出能力更全面的GPT-4o,无疑会给谷歌带来更大的压力,谷歌2024年度的I/O开发者大会,将在当地时间周二开始,外界预计他们会推出大量人工智能相关的产品。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1