🚀 二维码条件控制网络模型,适用于Stable Diffusion 2.1
本项目提供了适用于Stable Diffusion v2.1的二维码条件控制网络(ControlNet)的safetensors和diffusers版本。该模型能基于二维码条件生成图像,为图像生成领域带来新的可能性。

🚀 快速开始
环境准备
使用diffusers库调用模型前,需要安装必要的依赖:
pip -q install diffusers transformers accelerate torch xformers
代码示例
以下是使用Python代码调用模型的示例:
import torch
from PIL import Image
from diffusers import StableDiffusionControlNetImg2ImgPipeline, ControlNetModel, DDIMScheduler
from diffusers.utils import load_image
controlnet = ControlNetModel.from_pretrained("DionTimmer/controlnet_qrcode-control_v11p_sd21",
torch_dtype=torch.float16)
pipe = StableDiffusionControlNetImg2ImgPipeline.from_pretrained(
"stabilityai/stable-diffusion-2-1",
controlnet=controlnet,
safety_checker=None,
torch_dtype=torch.float16
)
pipe.enable_xformers_memory_efficient_attention()
pipe.scheduler = DDIMScheduler.from_config(pipe.scheduler.config)
pipe.enable_model_cpu_offload()
def resize_for_condition_image(input_image: Image, resolution: int):
input_image = input_image.convert("RGB")
W, H = input_image.size
k = float(resolution) / min(H, W)
H *= k
W *= k
H = int(round(H / 64.0)) * 64
W = int(round(W / 64.0)) * 64
img = input_image.resize((W, H), resample=Image.LANCZOS)
return img
source_image = load_image("https://s3.amazonaws.com/moonup/production/uploads/6064e095abd8d3692e3e2ed6/A_RqHaAM6YHBodPLwqtjn.png")
init_image = load_image("https://s3.amazonaws.com/moonup/production/uploads/noauth/KfMBABpOwIuNolv1pe3qX.jpeg")
condition_image = resize_for_condition_image(source_image, 768)
init_image = resize_for_condition_image(init_image, 768)
generator = torch.manual_seed(123121231)
image = pipe(prompt="a bilboard in NYC with a qrcode",
negative_prompt="ugly, disfigured, low quality, blurry, nsfw",
image=init_image,
control_image=condition_image,
width=768,
height=768,
guidance_scale=20,
controlnet_conditioning_scale=1.5,
generator=generator,
strength=0.9,
num_inference_steps=150,
)
image.images[0]
✨ 主要特性
- 版本适配:提供了适用于Stable Diffusion 2.1和1.5版本的模型,满足不同用户的需求。
- 效果良好:在大多数情况下,模型能够生成质量较高的图像,但仍存在一定的局限性。
- 可调节性:可以通过调整控制网络的权重、引导比例等参数,平衡图像的风格和二维码的形状。
📦 安装指南
最简单的使用方法是将.safetensors
模型文件及其对应的.yaml
配置文件放置在你其他ControlNet模型的安装文件夹中,具体文件夹位置因应用而异。
- 在auto1111中使用:可以将模型文件和配置文件放置在
webui/models/ControlNet
文件夹中。你可以通过webui的扩展选项卡安装ControlNet扩展(https://github.com/Mikubill/sd-webui-controlnet )来加载模型。
- 确保启用ControlNet单元,并将输入图像设置为二维码。
- 根据你的基础Stable Diffusion模型选择SD2.1或1.5版本的模型,否则会报错。
- 不需要预处理器,但你可以使用反转预处理器来获得不同的结果。
- 推荐使用768的分辨率进行图像生成,以获得更丰富的细节。
🔧 技术细节
性能与局限性
这些模型在大多数情况下表现良好,但请注意,它们并非100%准确。在某些情况下,二维码的形状可能无法如预期般呈现。你可以增加ControlNet的权重来强调二维码的形状,但要注意这可能会对输出图像的风格产生负面影响。为了优化二维码的扫描效果,请使用纠错模式为'H'(30%)生成二维码。
为了在风格和形状之间取得平衡,可能需要根据具体的输入、期望的输出以及合适的提示词,对控制权重进行微调。有些提示词在大幅增加权重之前可能无法正常工作。找到这些因素之间的正确平衡既是一门艺术,也是一门科学。为了获得最佳效果,建议以768的分辨率生成你的艺术作品,这样可以在最终产品中实现更高的细节水平,提升基于二维码的艺术作品的质量和效果。
📄 许可证
本项目采用OpenRAIL++许可证。