今天分享的是人工智能AIGC研究报告:《AI2.0时代,如何通过AIGC打造爆款营销内容?》。(报告出品方:腾讯云)
研究报告内容摘要如下
文生图:根据文本提示作为输入来 生成的图像(输入为文本)
图生图:对图像根据文字描述进行修改(输 入为文本+图像)
• 每张图片都满足一定的规律分布,利用文本中包含的分布信息作为指导,将纯噪声的图片逐步去噪,生成一张跟文本信息匹配的图片
• Stable Diffusion 是一个组合系统,包含了多个模型子模块,组成扩散Pipeline
我们需要什么
· 一种生成图片的神经网络训练方法 —— 寻找分布的方法
· 一种连接文字和图片的方法 —— 多模态连接的方法
· 一种压缩和解压缩图片的方法 —— 加速训练的方法
多模态连接的方法
• CLIP是图像 Encoder 和文本 Encoder 的组合,CLIP 训练时分别对图像和文本进行编码,使用余弦相似度 进行对比,反向更新两个 Encoder 的参数
• 完成训练后,输入配对的图片和文字,两个 encoder 就可以输出相似的 embedding 向量,输入不匹配的 图片和文字,两个 encoder 输出向量的余弦相似度 就会接近于 0
• 推理时,输入文字通过 CLIP 转化为 embedding , 映射进 Unet 注意力层,和图片相互作
3. 加速训练的方法
为了加快图像生成过程,Stable Diffusion 没有在像素图像上进行运行,而是在图像的压缩版本(潜空间)上运行。模型学习时,将图像的尺寸先减小再恢复到原始尺寸。使用解码器从压缩数据中重建图像时,会同时学习之前的所有相关信息。
使用腾讯云TKE+CFS部署 Stable Diffusion
qGPU:GPU共享技术
qGPU是腾讯云推出的GPU共享技术,支持在多个容器间共享GPU卡并提供容器间显存、算力强隔离的能力,从而在更小粒度的使用GPU卡的基础上,保证业务安全,达到提高GPU使用率、降低客户成本的目的。
·灵活性:自由配置GPU显存大小和算力占比
·云原生:支持标准Kubernetes和NVIDIADocker
·兼容性:业务不重编、CUDA库不替换、业务无感
·高性能:GPU设备底层虚拟化,高效收敛,吞吐接近0损耗
·强隔离:支持显存和算力的严格隔离
StableDiffusionWebUI服务以串行方式处理请求,如果希望增加推理服务并发性能,可以考虑扩展Deployment的Pod数量,以轮询的方式响应请求。这里我们采用TKEqGPU能力,将多个实例Pod运行在同一张A10卡上,在保障业务稳定性的前提下,切分显卡资源,降低部署成本。
采用qGPU方式,需要先将Pod的资源申请方式进行修改。如果计划单卡上部署2个Pod,将卡数改为50%的算力分配,显存设置为A10显存的一半。DeploymentYAML更新完成后,调整Pod数量为2个,即可实现负载均衡的StableDiffusion轮询模式
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
本报告共计:52页。受篇幅限制,仅列举部分内容。
精选报告来源公众号:【幻影视界】,回复关键字“202307”,获取完整PDF电子版