🚀 Stable Diffusion 2.1用QRコード条件付きControlNetモデル
このリポジトリは、Stable Diffusion v2.1用のQRコード条件付きControlNetのsafetensorsとdiffusersバージョンを保持しています。

🚀 クイックスタート
このリポジトリは、Stable Diffusion v2.1用のQRコード条件付きControlNetのsafetensorsとdiffusersバージョンを保持しています。Stable Diffusion 2.1バージョンは、私の特定のニーズに対応するために開発されたため、わずかに効果的です。ただし、古いバージョンを使用している人のために、同じデータセットで1.5バージョンのモデルもトレーニングされています。
✨ 主な機能
- このリポジトリには、Stable Diffusion v2.1用のQRコード条件付きControlNetのsafetensorsとdiffusersバージョンが含まれています。
- Stable Diffusion 2.1バージョンは、特定のニーズに対応するために開発されたため、わずかに効果的です。
- 古いバージョンを使用している人のために、同じデータセットで1.5バージョンのモデルもトレーニングされています。
📦 インストール
これを使用する最も簡単な方法は、.safetensorsモデルとその.yaml設定ファイルを、他のControlNetモデルがインストールされているフォルダに配置することです。これはアプリケーションによって異なります。
auto1111で使用する場合は、webui/models/ControlNetフォルダに配置できます。ControlNetのWebUI拡張機能を使用してロードでき、これはWebUIの拡張機能タブからインストールできます(https://github.com/Mikubill/sd-webui-controlnet)。ControlNetユニットを有効にし、入力画像をQRコードに設定してください。基本のStable Diffusionモデルに応じて、モデルをSD2.1または1.5バージョンに設定しないとエラーになります。前処理は必要ありませんが、異なる結果を得るために反転前処理を使用することもできます。生成には768の解像度が推奨されます。これにより、最終製品の詳細度が高まり、QRコードベースのアートワークの品質と効果が向上します。
💻 使用例
基本的な使用法
pip -q install diffusers transformers accelerate torch xformers
import torch
from PIL import Image
from diffusers import StableDiffusionControlNetImg2ImgPipeline, ControlNetModel, DDIMScheduler
from diffusers.utils import load_image
controlnet = ControlNetModel.from_pretrained("DionTimmer/controlnet_qrcode-control_v11p_sd21",
torch_dtype=torch.float16)
pipe = StableDiffusionControlNetImg2ImgPipeline.from_pretrained(
"stabilityai/stable-diffusion-2-1",
controlnet=controlnet,
safety_checker=None,
torch_dtype=torch.float16
)
pipe.enable_xformers_memory_efficient_attention()
pipe.scheduler = DDIMScheduler.from_config(pipe.scheduler.config)
pipe.enable_model_cpu_offload()
def resize_for_condition_image(input_image: Image, resolution: int):
input_image = input_image.convert("RGB")
W, H = input_image.size
k = float(resolution) / min(H, W)
H *= k
W *= k
H = int(round(H / 64.0)) * 64
W = int(round(W / 64.0)) * 64
img = input_image.resize((W, H), resample=Image.LANCZOS)
return img
source_image = load_image("https://s3.amazonaws.com/moonup/production/uploads/6064e095abd8d3692e3e2ed6/A_RqHaAM6YHBodPLwqtjn.png")
init_image = load_image("https://s3.amazonaws.com/moonup/production/uploads/noauth/KfMBABpOwIuNolv1pe3qX.jpeg")
condition_image = resize_for_condition_image(source_image, 768)
init_image = resize_for_condition_image(init_image, 768)
generator = torch.manual_seed(123121231)
image = pipe(prompt="a bilboard in NYC with a qrcode",
negative_prompt="ugly, disfigured, low quality, blurry, nsfw",
image=init_image,
control_image=condition_image,
width=768,
height=768,
guidance_scale=20,
controlnet_conditioning_scale=1.5,
generator=generator,
strength=0.9,
num_inference_steps=150,
)
image.images[0]
📚 ドキュメント
性能と制限
これらのモデルはほとんどの場合でうまく機能しますが、100%正確ではないことに注意してください。場合によっては、QRコードの形状が期待通りに再現されないことがあります。QRコードの形状を強調するために、ControlNetの重みを増やすことができます。ただし、これは出力のスタイルに悪影響を与える可能性があるため、注意してください。スキャンを最適化するために、誤り訂正モード'H'(30%)でQRコードを生成してください。
スタイルと形状のバランスを取るには、個々の入力と目的の出力、および適切なプロンプトに基づいて、制御重みを微調整する必要がある場合があります。一部のプロンプトは、重みを大幅に増やさないと機能しないことがあります。これらの要素間の適切なバランスを見つけるプロセスは、一部はアートであり、一部は科学です。最良の結果を得るには、768の解像度でアートワークを生成することをお勧めします。これにより、最終製品の詳細度が高まり、QRコードベースのアートワークの品質と効果が向上します。
📄 ライセンス
openrail++