依托于自身对AIGC强大的兼容性,时光坐标再次成为最新前沿AI技术的落脚点,以数字内容生产、优化和使用三个阶段为切入点,培养包括数字资产生成、数字内容增强和数字资源库为核心的综合解决能力,实现跨模态生成式AI对LED虚拟拍摄解决方案的革命性提升,并在时光新影教育板块中新设AI教程,助力广大学子0到1打造AI短片。
这是一段外星人入侵地球的科幻短视频,花了大约两天时间制作,并没有太苛求画面细节,重点在于借助现有的AI产品,我们能在短时间内高效的完成一个小故事从创意到视频的整个过程。大体流程依然是从AI生成故事文字,然后AI生成分镜图片,再到AI生成动态镜头的过程。
我们使用国产的Kimi来完成AI生成故事文字的部分。虽然国外的GPT技术依然领先,但国内的Kimi在使用的便利性和本土适配方面也有不小的优势。从实际使用感受来看,Kimi生成故事文字的能力还是很不错的,特别是你在不断给它反馈调整结果的时候,全程都很流畅。当然我们也顺便让它把故事文字翻译成Midjourney对应的提示词。
有了合适的提示词之后,我们就可以使用Midjourney来生成分镜画面了。虽然Midjourney生成静态图像的能力非常惊艳,但是我们还是需要注意作为分镜的画面要考虑视频上的一些特殊要求,比如前后镜头的连贯性,故事的整体氛围等。所以需要根据生成的画面情况,考虑如何修正提示词,比如景别,视角,增减元素,前后镜的关系等等,修改的过程还是很依赖Kimi,告诉它哪个镜头要改什么,它会反馈更新的提示词。
当不断重复修改得到比较理想的分镜画面之后,就可以开始AI视频的制作了。我们主要使用了Runway和Dreamina来进行画面的动态化。Runway是国外AI视频生成工具的头号选手,具有摄影机控制和运动笔刷功能,可以方便的控制画面中变化的范围,实测对于烟雾,火焰等类似流体的运动有不错的效果,但是物体的运动和人物的运动就没有那么理想。
Dreamnia是国内字节跳动推出的AI视频产品,它的动态生成表现很惊艳, 不论是飞船还是地面的火焰动的都很自然,特别是人物手指也能动起来,比Runway的表现好。但是它生成的画面质量衰减的比较快,后续要配合Topaz Video Ai之类的画面增强工具来改善。
当然,AI生成视频的过程还是有一定的抽卡成分,需要多尝试几次。当处理完所有的镜头之后,在剪映里组合起来,配上一个史诗级的BGM和简短的文字讲解就完成了。
通过以上的过程,我们可以看到AI视频制作技术以其易用性、低门槛和高效率正显著改变着视频创作领域。它通过简化操作流程,极大地拓宽了视频创作的参与度和创新空间。无需繁琐而昂贵的前期拍摄和后期特效,只要你能想,就能马上呈现脑海中的画面,开始讲自己的故事。