OpenAI似乎已经在为Sora降世预热了。
当地时间3月13日周三,OpenAI首席技术官米拉·穆拉蒂(Mira Murati)接受了《华盛顿邮报》的视频专访。
穆拉蒂在接受采访时透露,目前利用Sora生成视频的成本非常高,团队正在优化技术,预计将在今年正式发布。
穆拉蒂透露,OpenAI人工智能文生视频大模型Sora即将于今年晚些时候正式向公众发布,OpenAI计划最终加入音频功能,以使场景更为真实,同时还将允许用户编辑Sora生成的视频内容。
除此之外,穆拉蒂还回答了Sora的特别之处、如何修正瑕疵、是否会包含音频、训练数据来自哪里等若干问题。给出的答案有的笼统,有的不乏诚意。
Sora如何“化文字为神奇”?请你想象一幕场景:“一条美人鱼和她的螃蟹伙伴,正在一起浏览智能手机……”
作为这场媒体采访的“福利”,主持人获得了让Sora将其提供的多组文本提示,转化为视频图像的机会,而以上的这一幕,便是Sora提供的视频中的一帧。
图片来源:视频截图
Sora究竟是如何实现这一转换的呢?穆拉蒂表示,尽管解释美人鱼的进化可能都要比解释“扩散模型”(diffusion models)的内部运作容易得多,但简而言之便是:人工智能模型分析了大量视频,学会了识别物体和动作。然后,当你给它一个文字提示时,它就会勾勒出整个场景,然后填充每一帧。
在被问及OpenAI为Sora使用了哪些训练数据时,穆拉蒂指出,“我们使用了公开数据和授权数据”。
在另外一段视频里,主持人要求Sora制作一段她更为符合这场采访的内容:“两位30多岁、有着棕色头发的职业女性,在一个光线充足的演播室里坐下来接受新闻采访。”
图片来源:视频截图
最终,在Sora交出的“作业”里,无论是两位女性嘴型和头发的动捕,还是皮夹克上的细节,一切看起来都那么真实。Murati指出,这段20秒的720p分辨率短片,Sora花了几分钟才制作完成,但目前还未能支持配备音效。
但穆拉蒂已承诺,他们计划最终会添加声音。
Murati还表示,当前Sora生成视频的成本远高于该公司的图像生成器Dall-E。不过,在未来向公众正式发布时,OpenAI将进行优化,以降低对算力的需求。
北京时间2月16日,OpenAI发布文生视频模型Sora,效果惊艳,引爆全球。此时距离OpenAI推出ChatGPT,开启生成式AI时代,仅仅过去了14个月时间,AI的进化速度令人震惊。
在Sora生成的视频里,女士身着黑色皮衣、红色裙子在霓虹街头行走,不仅主体连贯稳定,还有多镜头,包括从大街景慢慢切入到对女士的脸部表情的特写,以及潮湿的街道地面反射霓虹灯的光影效果。
图片来源:视频截图
Sora的研究结果表明,扩展视频生成模型是构建物理世界通用模拟器一条极具前景的途径,它使人工智能理解和模拟运动中的物理世界迈向了一个新的高度。
有业内人士预言,通用人工智能(AGI)将比预期更早到来,产业差距将拉大。此外,文生视频所带来的颠覆性影响引发了人们的担忧,亦有远虑者就真实与虚拟间模糊的边界反复预警。但少有争议的一点是,Sora被认为有望推动AI应用加速落地。
与此同时,Sora的诞生引发了人们对于AI未来发展的更多展望。随着技术的不断进步,AI将在更多领域发挥更大的作用。无论是工业生产、教育培训还是娱乐休闲等领域,AI都将为人类带来更多的惊喜和可能性。
2月16日,360创始人周鸿祎发布微博提到自己对Sora的看法,周鸿祎认为,Sora的诞生意味着AGI(通用人工智能)实现可能从10年缩短至一两年。
谈到Sora最大的优势,周鸿祎表示,以往文生视频软件都是在2D平面上对图形元素进行操作,可以把视频看成是多个真实图片的组合,并没有真正掌握这个世界的知识。但Sora产生的视频里,它能像人一样理解坦克是有巨大冲击力的,坦克能撞毁汽车,而不会出现汽车撞毁坦克这样的情况,“这次OpenAI利用它的大语言模型优势,让Sora实现了对现实世界的理解和对世界的模拟两层能力,这样产生的视频才是真实的,才能跳出2D的范围模拟真实的物理世界。”
周鸿祎提到,有了大模型技术作为基础,再加上人类知识的引导,可以创造各个领域的超级工具,例如在生物医学、蛋白质、基因研究,包括物理、化学、数学的学科研究上,大模型都会发挥作用。
“一旦人工智能接上摄像头,把所有的电影都看一遍,把YouTube上和TikTok的视频都看一遍,对世界的理解将远远超过文字学习,一幅图胜过千言万语,这就离AGI真的就不远了,不是10年20年的问题,可能一两年很快就可以实现。”周鸿祎感慨。
每日经济新闻综合OpenAI官网、每日经济新闻、公开资料
每日经济新闻