当前位置:首页|资讯|AIGC

AIGC行业专题报告:从文生图到文生视频_技术框架与商业化(附下载)

作者:健哥谈房产发布时间:2023-11-18

原标题:AIGC行业专题报告:从文生图到文生视频_技术框架与商业化(附下载)

天分享的是【AIGC行业专题报告:从文生图到文生视频_技术框架与商业化】 报告出品方:国海

1、底层模型技术框架梳理

文生图和文生视频的底层技术框架较为相似,主要包括GAN、自回归和扩散模型三大路径,其中扩散模型(Diffusion model)为当前主流生成模型,多个指标对比下综合占优,能在较为可控的算力成本和较快的速度下生成具备多样性、高质量的图像:①图像质量:扩散模型>自回归模型>GAN模型。FID值(Fréchet Inception Distance score)是用于评估模型生成的图像质量的指标,是用来计算真实图像与生成图像的特征向量间距离的一种度量。FID值越小,可以认为图像质量在一定程度上越优。从不同模型的FID得分来看,扩散模型平均数较小,反应图像质量较高。②参数量:自回归模型>扩散模型>GAN模型。GAN的参数量一般在千万级别,整体较为轻巧,扩散模型的参数量在十亿级别,自回归模型在十亿到百亿级不等。③生成速度(由快到慢):GAN模型>扩散模型>自回归模型。生成速度与参数量级为负相关关系。④训练成本:自回归>扩散模型>GAN模型。由于参数量级较小,GAN模型训练成本小且开源模型多,仍具备一定优势。而自回归模型参数量级较大,整体训练成本更高。在单张A100GPU下,120亿参数的DALL-E需要18万小时,200亿参数的 Parti 更是需要超过100万小时,扩散模型参数量在十亿级别,整体训练成本较为适中。

2、商业化模式及成本拆分

文生图商业化模型:当前主要的商业化方式包括基于GPU时间/生成次数/API接口调用/个性化定价等方式。根据我们调研,以Midjourney为例,单张图片生成成本约0.03~0.04美金,单张收入约0.05美金,毛利率约30%~40%,净利率约20%。

文生图领域整体创业门槛低于大语言模型:①模型层看:图像生成领域已有生成质量较高的开源预训练模型Stable Diffusion,且SD具有较为丰富的开发者生态,有许多插件供选择。创业公司可基于Stable Diffusion基础版本进行进一步调优和个性化数据训练。②成本端看:从主流模型参数规模看,文生图参数量级多在1-10B之间,而通用大模型入门级门槛达到了70B,文生图整体参数量级较小,成本远低于通用大模型。通过调研文生图初创公司,实际小团队利用开源模型,初期在用户不到1万情况下甚至无需购买A100,通过购买RTX30\40系列、IBS3060(5000~1w/张)也可以启动。我们对文生图推理算力需求也进行了测算,以10亿级参数量的模型、在100万DAU的用户量级为例,若想控制单次推理延迟时间,需部署约143张A100,整体芯片算力需求低于大语言通用模型。

文生图商业模式仍存疑问,长期竞争需要技术+产品+场景能力结合突破:①对于垂类AI应用:短期看头部应用通过技术/产品/成本/数据等优势突破,在C端率先开启变现,长期看针对垂类场景C端天花板相对明确,搭建工程化能力可技术输出到B端场景,探索更多变现可能。②对于现有应用叠加AI功能:短期通过AI功能引入提升产品体验和用户粘性;长期看基于现有高频场景,用户壁垒更强、不易流失,用户ARPU和付费率有望提升。

3、文生图代表模型及应用

从模型和应用看,海外OpenAI、谷歌、微软、Meta、Midjourney、Stability AI都推出了各自的文生图模型,国内百度、美图、万兴科技、新国都等均推出各自AI应用。从生成效果看Midjourney、Adobe和Stable Diffusion综合较优,OpenAI最新升级DALL-E3模型将与ChatGPT集成,多模态交互能力持续提升,有望带来新的场景突破。

4、行业评级及理由:文生图和文生视频底层技术不断演进、模型持续迭代,涌现出一批优质原生AI应用,在C端开创了全新的应用体验,同时在B端游戏、营销、影视制作、文旅、电商等多个行业均开启应用,实现降本增效,长期有望进一步打开商业化空间。我们看好AI多模态行业投资机会,维持行业“推荐”评级,建议关注微软、Meta、Adobe、谷歌、百度、阿里巴巴、美图、万兴科技、新国都等相关标的。

免责声明:以上报告均系本平台通过公开、合法渠道获得,报告版权归原撰写/发布机构所有,如涉侵权,请联系删除 ;资料为推荐阅读,仅供参考学习,如对内容存疑,请与原撰写/发布机构联系。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1