(来源:天津数港)
重磅!OpenAI首个视频生成模型发布,1分钟流畅高清,效果炸裂!
据OpenAI官网,OpenAI首个视频生成模型Sora发布,完美继承DALL·E3的画质和遵循指令能力,能生成长达1分钟的高清视频。
AI想象中的龙年春节,红旗招展人山人海。
有紧跟舞龙队伍抬头好奇观望的儿童,还有不少人掏出手机边跟边拍,海量人物角色各有各的行为。
一位时髦女士漫步在东京街头,周围是温暖闪烁的霓虹灯和动感的城市标志。
一名年约三十的宇航员戴着红色针织摩托头盔展开冒险之旅,电影预告片呈现其穿梭于蓝天白云与盐湖沙漠之间的精彩瞬间,独特的电影风格、采用35毫米胶片拍摄,色彩鲜艳。
竖屏超近景视角下,这只蜥蜴细节拉满:
OpenAI表示,公司正在教授人工智能理解和模拟运动中的物理世界,目标是训练出能够帮助人们解决需要与现实世界互动的问题的模型。在此,隆重推出文本到视频模型——Sora。Sora可以生成长达一分钟的视频,同时保证视觉质量和符合用户提示的要求。
如今,Sora正面向部分成员开放,以评估关键领域的潜在危害或风险。同时,OpenAI也邀请了一批视觉艺术家、设计师和电影制作人加入,期望获得宝贵反馈,以推动模型进步,更好地助力创意工作者。OpenAI提前分享研究进展,旨在与OpenAI以外的人士合作并获取反馈,让公众了解即将到来的AI技术新篇章。
Sora模型能够生成包含多个角色、特定类型运动和主体及背景精确细节的复杂场景。该模型不仅能理解用户在提示中所要求的内容,还能理解这些事物在现实世界中的存在方式。该模型对语言有深刻理解,能准确解读提示,并生成表达丰富情感的引人入胜的角色。Sora还能在单个生成的视频中创建多个镜头,使角色和视觉风格保持准确一致。
比如一大群纸飞机在树林中飞过,Sora知道碰撞后会发生什么,并表现其中的光影变化。
一群纸飞机在茂密的丛林中翩翩起舞,在树林中穿梭,就像候鸟一样。
Sora还可以在单个视频中创建多个镜头,并依靠对语言的深入理解准确地解释提示词,保留角色和视觉风格。
对于Sora当前存在的弱点,OpenAI也不避讳,模型在准确模拟复杂场景的物理特性方面可能会遇到困难,也可能无法理解具体的因果关系实例。例如“五只灰狼幼崽在一条偏僻的碎石路上互相嬉戏、追逐”,狼的数量会变化,一些凭空出现或消失。
此外,模型还可能会混淆提示的空间细节,例如左右不分,并且在处理随时间发生事件的精确描述方面也可能存在困难,比如跟踪特定的摄像机轨迹。
如提示词“篮球穿过篮筐然后爆炸”中,篮球没有正确被篮筐阻挡。
技术方面,目前OpenAI透露的不多,简单介绍如下:
Sora是一种扩散模型,从噪声开始,能够一次生成整个视频或扩展视频的长度,
关键之处在于一次生成多帧的预测,确保画面主体即使暂时离开视野也能保持不变。
与GPT模型类似,Sora使用了Transformer架构,有很强的扩展性。
在数据方面,OpenAI将视频和图像表示为patch,类似于GPT中的token。
通过这种统一的数据表示方式,可以在比以前更广泛的视觉数据上训练模型,涵盖不同的持续时间、分辨率和纵横比。
Sora建立在过去对DALL·E和GPT模型的研究之上。它使用DALL·E3的重述提示词技术,为视觉训练数据生成高度描述性的标注,因此能够更忠实地遵循用户的文本指令。
除了能够仅根据文本指令生成视频之外,该模型还能够获取现有的静态图像并从中生成视频,准确地让图像内容动起来并关注小细节。
该模型还可以获取现有视频并对其进行扩展或填充缺失的帧。
Sora是能够理解和模拟现实世界的模型的基础,OpenAI相信这一功能将成为实现AGI的重要里程碑。
Sora生成的视频截图,图片来源:OpenAI官网
有网友直呼“工作要丢了”,还有网友表示,电影业要彻底颠覆了。
自去年大模型热潮兴起以来,围绕大语言模型,国内外的厂商推出了大量相关的大模型应用。不过从目前来看,除了对话类的大模型外,大部分大模型在商业上的性能均有待提高。而此次OpenAI的新模型则让业内看到了文生视频系大模型商业化的前景。此次Sora在范例演示中展现的多种性能已经非常接近视频工业中的日常需求。
OpenAI表示,他们正在教AI理解和模拟运动中的物理世界,目标是训练模型来帮助人们解决需要现实世界交互的问题。Sora将首先提供给网络安全教授,以评估产品的危害或风险。一些视觉艺术家、设计师和电影制作人也能获得Sora的访问权限,以此收集关于创意专业人士如何使用Sora的反馈。
据了解,目前Sora在部分细节的生成上依然存在问题,如会凭空生成目标。同时对于一些复杂的物理场景,Sora也可能会生成错误的物体,如沙滩上浮空的塑料椅子等。
来源:天津日报、中国经济网
天津数港
数据驱动智能,创新引领未来
编辑:李向飞 郑熠
审核:邓晶龙