随着AIGC技术的落地发展,越来越多的创新玩法闯进了我们视野,AI扩图便是其中之一。只需给AI一张图片,AI就会根据图像的上下文语义信息,预测和补充图像边界,生成一张尺寸更大的图像。
Stable Diffusion WebUIStable DiffusionAIGC
阿里云云栖号 2024-01-31
首先,win10/11警告,N卡警告,代理警告。由于手中无A卡暂未测试可行性。代理clash or V2ray等等。没有的就别浪费时间了。AUTOMATIC1111发布的N卡简易安装,全过程免装git,python,pip。后期可能会更新版本。当前版本直连。https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/download/v1.0.0-pre/sd.webui.zip下载好后解压,位置自选解压后,两个文件夹三个批处理文件(.
Stable DiffusionGitHubStable Diffusion WebUI
Royv- 2024-01-28
[图片] 大家好我是花生~ 之前为大家系统介绍过 Stable Diffusion WebUI 中 Controlnet 插件的安装使用方法,也系统梳理过各个模型的用法。现在 Controlnet 又有了一些新的模型和功能,今天正好为大家梳理一下。相关模型文件都在文末的云盘链接内,有需要的小伙伴记得下载~ 一、Animal_openpose Animal_openpose 是一个专门提取狗、鹿、马、豹等四足动物姿势骨架的模型,也可以用来引导人马等奇幻形象的生成。使用时需要: ① 下载 rtmpose-m_
Stable Diffusion WebUIStable Diffusion
优设网 2024-01-28
大家好,这里是和你们一起探索 AI 绘画的花生~之前为大家介绍过 AI 绘画工具 Krea,它可以根据手绘的草图实时生成完整的画面,可以让我们更精准地控制图像效果,对电商、产品、游戏概念等设计领域来说非常有帮助。之前为大家推荐过一种在 ComfyUI 中免费实现 AI 实时绘画的方式,今天就再为大家推荐另一种在 Stable Diffusion WebUI 中实现实时绘画的方法。一、插件简介SD WebUI 的实时绘画功能需要借助一个插件实现,这个插件是上周由 B 站 AI 绘画博主@朱尼酱推出,支持文生
张小枫聊设计 2024-01-23
1.找到 \stable-diffusion-webui\modules\ui_extensions.py [图片] 2.打开ui_extensions.py文件 3.Ctrl+F 搜索https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui-extensions/master/index.json,替换成https://mirror.ghproxy.com/https://raw.githubusercontent.co
吉祥如意SSS 2024-01-20
关于roop两个重点: 1.下载模型报错; 先行下载inswapper_128.onnx或inswapper_128_fp16.onnx放到*\stable-diffusion-webui\models\roop文件夹下; 下载buffalo_l.zip解压得到的5个文件放到C:\Users\\.insightface\models\buffalo_l文件夹下,没有buffalo_l文件夹的话就手工新建。 2.启用选择inswapper_128.onnx或inswapper_128_
AI8ge8888888 2024-01-07
一路上还是踩了不少坑,大概是我太菜了吧。我希望能展示一下不是计算机专业的小白应该如何尝试搭建。我会写得非常详细并展示一路上我犯的所有低级错误,还请各位大佬骂轻点。Step 1https://community.amd.com/t5/ai/updated-how-to-running-optimized-automatic1111-stable-diffusion/ba-p/630252以上网址是AMD官方给的提示基本上是对的,没啥大问题,只是对我这种没有基本编程知识的有点难受。要折腾的小伙伴可以认真读一下
Stable Diffusion WebUIStable Diffusion编程
Ashpinion 2024-01-06
在使用stable-diffusion-webui的过程中,controlnet是绕不开的路,而这条路上,肯定有个叫做【黑底白字】和【白底黑字】的路标参考图。这篇文章以实例来揭示其中的区别。 首先,【黑底白字】和【白底黑字】长啥样,见下图: [图片] [图片] 不管是【黑底白字】还是【白底黑字】,作为controlnet的参考图,自然是放到controlnet的images里,通常在第一层controlnet中与canny、scribble配合使用,第二层与depth配合使用,当然也可以与tile配合使
AI8ge8888888 2024-01-05
使用工具:stable-diffusion-webuigit库:https://github.com/AUTOMATIC1111/stable-diffusion-webui模型:Anything_V5图1 鲸鱼号图2 泡泡少女图3 魔幻水下城堡鸣谢以下UP,他们的文章和视频带我入门,阿门~【Stable Diffusion整合包v4.5】---> 秋叶大佬【B站第一套系统的AI绘画课!】Nenly同学
Stable DiffusionGitHubStable Diffusion WebUIAI绘画
大黄的琴和猫 2024-01-05
用stable-diffusion-webui生成有文字背景的图片。 用ps或其他工具制作【黑底白字】的图片,上传到controlnet-images,启用canny。 注意事项: 底模与controlnet模型要匹配,1.5底模选xl的controlnet模型是不会出效果的; 1.5/2.0篇: 从测试图可以看出调参重点有两个: 1.控制权重Control Weight推荐1; 2.起始控制步数Starting Control Step推荐0.3。 具体的操作界面及对比测试图如下 [图片] [图片] s
Copyright © 2024 aigcdaily.cn 北京智识时代科技有限公司 版权所有 京ICP备2023006237号-1