当前位置:首页|资讯|AIGC|人工智能|腾讯

AI2.0时代,如何通过AIGC打造爆款营销内容?(附下载)

作者:AIGC资源社发布时间:2023-07-08

原标题:AI2.0时代,如何通过AIGC打造爆款营销内容?(附下载)

今天分享的是人工智能AIGC研究报告:《AI2.0时代,如何通过AIGC打造爆款营销内容?》。(报告出品方:腾讯云)

研究报告内容摘要如下

什么是 Stable Diffusion

文生图:根据文本提示作为输入来 生成的图像(输入为文本)

图生图:对图像根据文字描述进行修改(输 入为文本+图像)

Stable Diffusion 系统架构图

• 每张图片都满足一定的规律分布,利用文本中包含的分布信息作为指导,将纯噪声的图片逐步去噪,生成一张跟文本信息匹配的图片

• Stable Diffusion 是一个组合系统,包含了多个模型子模块,组成扩散Pipeline

我们需要什么

· 一种生成图片的神经网络训练方法 —— 寻找分布的方法

· 一种连接文字和图片的方法 —— 多模态连接的方法

· 一种压缩和解压缩图片的方法 —— 加速训练的方法

Diffusion model 运行机制

Stable Diffusion 模块分析

多模态连接的方法

• CLIP是图像 Encoder 和文本 Encoder 的组合,CLIP 训练时分别对图像和文本进行编码,使用余弦相似度 进行对比,反向更新两个 Encoder 的参数

• 完成训练后,输入配对的图片和文字,两个 encoder 就可以输出相似的 embedding 向量,输入不匹配的 图片和文字,两个 encoder 输出向量的余弦相似度 就会接近于 0

• 推理时,输入文字通过 CLIP 转化为 embedding , 映射进 Unet 注意力层,和图片相互作

变分自编码器 VAE

3. 加速训练的方法

为了加快图像生成过程,Stable Diffusion 没有在像素图像上进行运行,而是在图像的压缩版本(潜空间)上运行。模型学习时,将图像的尺寸先减小再恢复到原始尺寸。使用解码器从压缩数据中重建图像时,会同时学习之前的所有相关信息。

使用腾讯云TKE+CFS部署 Stable Diffusion

通过qGPU提升推理服务并发性能

qGPU:GPU共享技术

qGPU是腾讯云推出的GPU共享技术,支持在多个容器间共享GPU卡并提供容器间显存、算力强隔离的能力,从而在更小粒度的使用GPU卡的基础上,保证业务安全,达到提高GPU使用率、降低客户成本的目的。

·灵活性:自由配置GPU显存大小和算力占比

·云原生:支持标准Kubernetes和NVIDIADocker

·兼容性:业务不重编、CUDA库不替换、业务无感

·高性能:GPU设备底层虚拟化,高效收敛,吞吐接近0损耗

·强隔离:支持显存和算力的严格隔离

StableDiffusion使用qGPU

StableDiffusionWebUI服务以串行方式处理请求,如果希望增加推理服务并发性能,可以考虑扩展Deployment的Pod数量,以轮询的方式响应请求。这里我们采用TKEqGPU能力,将多个实例Pod运行在同一张A10卡上,在保障业务稳定性的前提下,切分显卡资源,降低部署成本。

采用qGPU方式,需要先将Pod的资源申请方式进行修改。如果计划单卡上部署2个Pod,将卡数改为50%的算力分配,显存设置为A10显存的一半。DeploymentYAML更新完成后,调整Pod数量为2个,即可实现负载均衡的StableDiffusion轮询模式

(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

本报告共计:52页。受篇幅限制,仅列举部分内容。

精选报告来源公众号:【幻影视界】,回复关键字“202307”,获取完整PDF电子版


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1