今天分享的是:2023年AIGC行业报告:生成式AI下一颗最闪亮的星视频引擎(报告出品方:天风证券)
生成算法模型不断突破创新,下游应用场景不断拓展
基础的生成算法模型不断突破创新,基础能力日新月异,从国像向视频和3D扩展,更广泛地应用于下游应用场景
生成对抗网络(GAN)是早期最著名的生成模型之一,尽管在图像生成上产生了卓越的效果,但其训练常常受到梯度消失和模式崩溃等问题的影响。与GAN相比,扩散模型(Difusion Model)只需要训练“生成器”,,不需要训练别的网络(判别器、后验分布等),训练时仅需模仿一个简单的前向过程对应的逆过程,实现简练过程的简化。扩散模型相对GAN来说具有更灵活的模型架构和更精确的对数似然计算,生成图像质量明显优于GAN,已经成为目前最先进的图像生成模型。
此前扩散模型主要适用于生成2D图像,23年Runwav的最新研究成果将扩散模型扩展到视频领域,在未加字幕的视频和配对的文本-图像数据的大规模数据集上训练出视频扩散模型。
NeRF(神经辐射场)的出现为3D场景生成带来了新的可能性,进一步拓宽生成算法领域下游的应用场景。NeRF(NeuralRadiance Field)是一种基于神经网络的 3D 重建技术,不同于传统的三维重建方法把场景表示为点云、网格、体素等显式的表达NeRF将场景建模成一个连续的 5D 辐射场隐式存储在神经网络中,输入多角度的 2D 图像,通过训练得到神经辐射场模型,根据模型渲染出任意视角下的清晰照片。
报告共计:31页
以下为报告节选内容
报告共计:31页
中小未来圈,你需要的资料,我这里都有!