当前位置:首页|资讯|OpenAI

OpenAI首个文生视频模型Sora炸街!整个视频行业饭碗要被端了?业内人士:为时尚早

作者:财联社发布时间:2024-02-17

OpenAI首个文生视频模型Sora炸街!整个视频行业饭碗要被端了?业内人士:为时尚早

《科创板日报》2月17日讯(记者 黄心怡)2月16日凌晨,OpenAI发布了首个文生视频模型Sora,可以用文字指令生成长达1分钟的高清视频。

当前大模型在各个领域的应用,主要集中在文生文、文生图之上,而在文生视频领域却进步缓慢。此次文生视频模型Sora的发布,无疑令人振奋。不少业内分析指出,这将对于广告业、电影预告片、短视频行业带来巨大的颠覆。但也有从业者保持冷静:短期内的颠覆速度不一定那么快,更多地是借助新技术,激发更多人的创作力。

▍短期内较难带来颠覆性影响

在官网上已经更新了48个视频实例中,Sora能够准确呈现视频细节,还能深刻理解物体在现实世界中的存在状态,并生成具有丰富情感的角色。

例如,某个Prompt(大语言模型的提示词)的描述是美丽、白雪皑皑的东京城市熙熙攘攘。镜头穿过熙熙攘攘的城市街道,跟随几个人享受美丽的雪天,在附近的摊位上购物。绚丽的樱花花瓣和雪花一起在风中飞舞。

在Sora生成的视频里,镜头从俯视白雪覆盖的东京,慢慢推进到两个行人在街道上手牵手行走,街旁的樱花树和摊位的画面均细致呈现。

不少业内人士认为,这个进展的意义难以想象,将对电影、小说、动漫、教育、游戏、自媒体行业全部具有深远的影响。

但也有视频剪辑从业人员破冷水:“大规模应用后能否催生更多好作品不清楚,但制造视频垃圾的速度一定会指数级增长。”

前百度产品委员会主席宋健表示:Sora确实很牛,但如果认为三年后就没人拍视频了,抖音Tiktok会被很快颠覆,那还是为时过早

“从平台的角度,抖快视频号本质上还是以视频为载体的社交平台,特效甚至视频化本身只是个形式。做产品的肯定知道从零建一个社交平台到底有多难,需要天时地利人和,技术只是其中的变量之一。此外,生成式视频的信息量不如真实拍摄大。比如一个30岁的男人和一个20岁的女人对话,表达、语气、表情的背后都是他们积累了50年的数据总和。这些是生成式AI当前无法替代的。而且用户对这些细节很敏感。”

宋健认为,如若希望借助Sora这种视频生成式技术,把视频行业变成一个“人纯粹消费机器工业化内容”的局面,这恐怕没戏。但如果说,通过借助新技术,让人和人之间产生新的连接,激活新的创作产能,这是有戏的。但也得尊重行业规律,日拱一卒地通过“技术”迭代“生态”,而不是直接把技术强怼给用户。

▍有望缩短实现通用人工智能的时间

360集团创始人周鸿祎也表示,今天Sora可能给广告业、电影预告片、短视频行业带来巨大的颠覆,但速度不一定那么快。

“AI不一定那么快颠覆所有行业,但它能激发更多人的创作力。很多人谈到Sora对影视工业的打击,我倒不觉得是这样,因为机器能生产一个好视频,但视频的主题、脚本和分镜头策划、台词的配合,都需要人的创意至少需要人给提示词。一个视频或者电影是由无数个60秒组成的。今天Sora可能给广告业、电影预告片、短视频行业带来巨大的颠覆,但它不一定那么快击败TikTok,更可能成为TikTok的创作工具。

周鸿祎认为,大语言模型的厉害之处在于,能完整地理解这个世界的知识。而此前所有的文生图、文生视频都是在2D平面上对图形元素进行操作,并没有适用物理定律。

“这次很多人从技术上、从产品体验上分析Sora,强调它能输出60秒视频,保持多镜头的一致性,模拟自然世界和物理规律,实际这些都比较表象。最重要的是Sora的技术思路完全不一样。Sora产生的视频里,它能像人一样理解坦克是有巨大冲击力的,坦克能撞毁汽车,而不会出现汽车撞毁坦克这样的情况。”

周鸿祎认为,这也代表未来的方向。有强劲的大模型做底子,基于对人类语言的理解,对人类知识和世界模型的了解,再叠加很多其他的技术,就可以创造各个领域的超级工具。

“比如生物医学蛋白质和基因研究,包括物理、化学、数学的学科研究上,大模型都会发挥作用。这次Sora对物理世界的模拟,至少将会对机器人具身智能和自动驾驶带来巨大的影响。原来的自动驾驶技术过度强调感知层面,而没有工作在认知层面。其实人在驾驶汽车的时候,很多判断是基于对这个世界的理解。比如对方的速度怎么样,能否发生碰撞,碰撞严重性如何,如果没有对世界的理解就很难做出一个真正的无人驾驶。”

周鸿祎预测,Sora的出现,或意味着AGI(通用人工智能)实现将从10年缩短到1年

“OpenAI训练这个模型应该会阅读大量视频。一旦人工智能接上摄像头,把所有的电影都看一遍,把YouTube上和TikTok的视频都看一遍,对世界的理解将远远超过文字学习,一幅图胜过千言万语,而视频传递的信息量又远远超过一幅图,这就离AGI真的就不远了,不是10年20年的问题,可能一两年很快就可以实现。

▍多模态大模型将成为生成式AI的重点发展方向

随着文生图、图片对话技术的成熟,文生视频已成为多模态大模型下一步发展的重点。展望2024年,机构人士认为,大模型领域的竞争将进一步白热化,多模态大模型将成为生成式AI的重点发展方向,并有望推动本轮AI行情进一步扩散。

在国盛证券看来,AI文生视频是多模态应用的下一站。文生视频即根据给定的文字提示直接生成视频。随着文生视频技术的日趋成熟和广泛应用,或将为当下热门的短剧市场带来变数。该技术有望极大降低短剧制作的综合成本,为解决“重制作而轻创作”的共性问题提供解决方案,短剧制作的重心有望回归高质量剧本创作。

中信证券表示,多模态大模型算法的突破将带来自动驾驶、机器人等技术的革命性进步,持续看好本轮生成式AI浪潮对科技产业的长周期影响和改变,继续关注算力、算法、数据、应用等环节的领先厂商。

东吴证券判断,多模态是AI商业宏图的起点,有望真正为企业降本增效,且企业可将节省下来的成本用于提高产品、服务质量或者技术创新,推动生产力进一步提升;同时,也可能出现新的、空间更大的用户生成内容平台。

(财联社记者 黄心怡)


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1