杨灵 投稿自 凹非寺
量子位 | 公众号 QbitAI
快手可灵大模型刚曝光,他们团队新成果又有了——
联合北大推出新框架VideoTetris,实现跟随复杂指令的文生视频。
就像拼俄罗斯方块一样,轻松组合细节~
在复杂视频生成任务中,超过了Pika,Gen-2等一众商用模型。
这个框架不仅能够直接增强现有模型的组合生成,还能够支持涵盖多复杂指令、多场景变更等更高难度的长视频生成。
据说,这一成果后续也将直接赋能「可灵」的生成能力。
首次定义组合视频生成
在文生图领域,RPG、Omost等项目已经实现了复杂的组合式多物体多场景图片生成。而在文生视频领域,组合生成自然地扩展到时间和空间维度,这样的场景还未被广泛探索。
团队首次定义了组合视频生成任务,包括两个子任务:
1、跟随复杂组合指令的视频生成。2、跟随递进的组合式多物体指令的长视频生成。
目前经团队测试发现,几乎所有开源模型,包括商用模型在内都未能生成正确的视频。
比如输入“左边一个可爱的棕色狗狗,右边一只打盹的猫在阳光下小憩”,结果生成的都是融合了两个物体信息的奇怪视频。
而使用VideoTetris,生成出的视频是这样,成功保留了所有的位置信息和细节特征。
在长视频生成中,目前的方法支持的可变指令目前还停留在“春夏秋冬”的转化,或单物体从走到跑到骑马的场景变化阶段。
团队输入一个简单的多指令:“从一只可爱的棕色松鼠在一堆榛子上过渡到一只可爱的棕色松鼠和一只可爱的白色松鼠在一堆榛子上”。
结果VideoTetris成功搞定,出现顺序也与Prompt一致,最后两只松鼠还在自然地交换食物。
使用了时空组合扩散方法
这样的效果是如何做到的呢?该团队的 VideoTetris 框架使用了时空组合扩散方法
他们将一个提示词首先按照时间解构,为不同的视频帧指定好不同的提示信息。
随后,在每一帧上进行空间维度的解构,将不同物体对应不同的视频区域。
最后,通过时空交叉注意力进行组合,通过这个过程实现高效的组合指令生成。
而为了生成更高质量的长视频,该团队还提出了一种增强的训练数据预处理方法。使得长视频生成更加动态稳定。
此外,还引入了一个参考帧注意力机制,使用原生VAE对之前的帧信息编码,区别于StreamingT2V,Vlogger,IPAdapter等使用CLIP 编码的方式,这样使得参考信息的表示空间和噪声完全一致,轻松获取更好的内容一致性。
这样优化的结果是,长视频从此不再有大面积偏色的现象,能够更好地适应复杂指令,并且生成的视频更具有动感,更符合自然。
对于这种组合生成的结果评测工作,该团队引入了新的评测指标VBLIP-VQA和VUnidet,将组合生成评价方法首次扩展到视频维度。
实验测试表明,在组合视频生成能力上,该模型的表现超过了所有开源模型,甚至是商用模型如Gen-2和Pika。
据介绍,该代码将完全开源,并将会继续赋能「可灵」的超强生成能力。
论文地址:
https://arxiv.org/abs/2406.04277
项目主页:
https://videotetris.github.io/
GitHub地址:https://github.com/YangLing0818/VideoTetris
—完—
投稿请发邮件到:
ai@qbitai.com
标题注明【投稿】,告诉我们:
你是谁,从哪来,投稿内容
附上论文/项目主页链接,以及联系方式哦
我们会(尽量)及时回复你
点这里👇关注我,记得标星哦~
一键三连「分享」、「点赞」和「在看」
科技前沿进展日日相见 ~