在Automatic1111的stable-diffusion-webui中,我们可以通过img2img中的inpaint功能,结合ControlNet插件,实现ControlNet控制的图像重绘。...【查看原文】
自从 Stable Diffusion 风靡全球以来,人们一直在寻求如何更好地控制生成过程的方法。ControlNet 提供了一个简单的迁移学习方法,能够允许用户在很大程度上自定义生成过程。通过 ControlNet,用户可以轻松地使用多种空间语义条件信息 (例如深度图、分割图、涂鸦图、关键点等) 来控制生成过程。具体来说,我们可以:将卡通绘图转化为逼真的照片,同时保持极佳的布局连贯性。写实版的 Lofi Girl (上: 原图,下: 新图)进行室内设计。将涂鸦草图变成艺术作品。甚至拟人化著名的 logo
Stable Diffusion艺术
HuggingFace 2023-03-07
简介ControlNet 这个神经网络模型使得用户可以通过施加额外条件,细粒度地控制扩散模型的生成过程。这一技术最初由 Adding Conditional Control to Text-to-Image Diffusion Models 这篇论文提出,并很快地风靡了扩散模型的开源社区。作者开源了 8 个不同的模型,使得用户可以用 8 种条件去控制 Stable Diffusion 模型(包括版本 1 到 5 )。这 8 种条件包括姿态估计、深度图、边缘图、素描图 等等。ControlNet 博文链接:
Stable Diffusion
HuggingFace 2023-04-04
前不久我们讲了Stable Diffusion自带的局部重绘功能,可以实现一键换衣服(教程移步:Stable Diffusion局部绘图的用法,可以实现一键换衣服)这次我们讲的是局部重绘功能结合ControlNet插件inpaint局部重绘模型control_v11p_sd15_inpaint.pth来实现更好的局部重绘效果!此模型可以完美的处理好接缝处的衔接问题,做到毫无违和感。下面我们开始讲解。首先,先把局部重绘模型control_v11p_sd15_inpaint.pth存放到\novelai-we
AI绘画Stable Diffusion
好奇漫步 2023-05-31
欢迎来到觉悟之坡AI绘画教学系列之第30篇。自从上次发布了AI模特文章,就引起了很多小伙伴的关注,有求详细教程的,有联系合作的。很高兴有很多人在持续关注着,也欢迎各路大神,小伙伴们一起来交流探讨,共同完善和提高。今天继续发布第二篇AI模特系列,希望抛砖引玉,和大家一起继续探讨和提高。上次的AI模特教程,是直接使用inpaint功能,来给模特换脸。这次,我们来讲一下openpose+inpaint(局部重绘)功能,来给模特换脸和穿衣服。一. 半身1.首先,假设我们有一个假人穿上我们家卖的t-shirt图。(
AI绘画
觉悟之坡 2023-04-18
Part 1 Inpaint的原理和实操【基础介绍】InPaint是一项图片修复技术,可以从图片上去除不必要的物体,让我们轻松摆脱照片上的水印、污渍、划痕、标志等瑕疵。一般来讲,图片的Inpaint过程可以理解为两步:1.找到图片中需要重绘的部分,比如上述提到的水印、污渍、划痕、标志等;2.去掉水印、污渍、划痕、标志等,自动填充图片上应该有的内容。【实操部分】SD Inpaint操作打开SD选择图生图点击Inpaint Sketch上传图片遮罩不想要的部分调整图片尺寸点击生成【引导图】CN I
麦克多娜AI 2023-11-14
消费金融挖掘最后一块“利润田”,给逾期不还的老赖们送出大额减免“逾期催收红包”
新识研究所 2024-12-26
IT之家 2024-12-26
Meta尝试用概念模型替代token,提高AI语言理解。
36氪的朋友们 2024-12-26
12 月 26 日 EV Focus 海外日报
EV Focus 日报 2024-12-26
质疑增程、理解增程、成为增程,然后呢?
甲子光年 2024-12-26
消费者不爱正经吃饭了。
红餐网 2024-12-26
电影消费券本是拉动观影需求、刺激电影市场复苏的惠民政策,如今却成了部分粉丝的“追星工具”。
看不见的东西,往往比直接摆在面前的更吓人。
触乐 2024-12-26
Copyright © 2025 aigcdaily.cn 北京智识时代科技有限公司 版权所有 京ICP备2023006237号-1