鞭牛士 9月24日消息,字节跳动旗下火山引擎今日在深圳举办AI创新巡展,正式发布了豆包视频生成-PixelDance、豆包视频生成-Seaweed两款大模型。
活动现场,火山引擎总裁谭待表示:“视频生成有很多难关亟待突破。豆包两款模型会持续演进,在解决关键问题上探索更多可能性,加速拓展AI视频的创作空间和应用落地。”
镜头切换方面,豆包视频生成模型能实现自然连贯的多拍动作与多主体复杂交互。豆包视频生成模型基于 DiT 架构,能够让视频在大动态与运镜中自由切换,拥有变焦、环绕、平摇、缩放、目标跟随等多镜头语言能力,并且,在镜头切换时可同时保持主体、风格、氛围的一致。
画面风格方面,经过剪映、即梦AI等持续迭代,豆包视频生成模型具备专业级光影布局和色彩调和。Transformer结构经过深度优化,可支持3D动画、2D动画、国画、黑白、厚涂等风格,适配电影、电视、电脑、手机等电子设备的比例,适用于电商营销、动画教育、城市文旅、微剧本等不同场景。
目前,新款豆包视频生成模型正在即梦AI内测版小范围测试,未来将逐步开放给所有用户。
此次活动中,豆包大模型不仅新增视频生成模型,还发布了豆包音乐模型和同声传译模型,已全面覆盖语言、语音、图像、视频等模态。
据火山引擎披露,截至9月,豆包语言模型的日均tokens使用量超过1.3万亿,相比5月首次发布时增长十倍,多模态数据处理量也分别达到每天5000万张图片和85万小时语音。