🚀 Stable Diffusion 2.1用QRコード条件付きControlNetモデル
このリポジトリは、Stable Diffusion v2.1用のQRコード条件付きControlNetのsafetensorsとdiffusersバージョンを保持しています。

🚀 クイックスタート
このセクションでは、diffusersを使用してこのモデルを使う方法を説明します。
必要なライブラリのインストール
pip -q install diffusers transformers accelerate torch xformers
コード例
import torch
from PIL import Image
from diffusers import StableDiffusionControlNetImg2ImgPipeline, ControlNetModel, DDIMScheduler
from diffusers.utils import load_image
controlnet = ControlNetModel.from_pretrained("DionTimmer/controlnet_qrcode-control_v11p_sd21",
torch_dtype=torch.float16)
pipe = StableDiffusionControlNetImg2ImgPipeline.from_pretrained(
"stabilityai/stable-diffusion-2-1",
controlnet=controlnet,
safety_checker=None,
torch_dtype=torch.float16
)
pipe.enable_xformers_memory_efficient_attention()
pipe.scheduler = DDIMScheduler.from_config(pipe.scheduler.config)
pipe.enable_model_cpu_offload()
def resize_for_condition_image(input_image: Image, resolution: int):
input_image = input_image.convert("RGB")
W, H = input_image.size
k = float(resolution) / min(H, W)
H *= k
W *= k
H = int(round(H / 64.0)) * 64
W = int(round(W / 64.0)) * 64
img = input_image.resize((W, H), resample=Image.LANCZOS)
return img
source_image = load_image("https://s3.amazonaws.com/moonup/production/uploads/6064e095abd8d3692e3e2ed6/A_RqHaAM6YHBodPLwqtjn.png")
init_image = load_image("https://s3.amazonaws.com/moonup/production/uploads/noauth/KfMBABpOwIuNolv1pe3qX.jpeg")
condition_image = resize_for_condition_image(source_image, 768)
init_image = resize_for_condition_image(init_image, 768)
generator = torch.manual_seed(123121231)
image = pipe(prompt="a bilboard in NYC with a qrcode",
negative_prompt="ugly, disfigured, low quality, blurry, nsfw",
image=init_image,
control_image=condition_image,
width=768,
height=768,
guidance_scale=20,
controlnet_conditioning_scale=1.5,
generator=generator,
strength=0.9,
num_inference_steps=150,
)
image.images[0]
✨ 主な機能
このリポジトリには、Stable Diffusion v2.1用のQRコード条件付きControlNetのsafetensorsとdiffusersバージョンが含まれています。Stable Diffusion 2.1バージョンは、特定のニーズに合わせて開発されたため、わずかに効果的です。ただし、古いバージョンを使用している人のために、同じデータセットで1.5バージョンのモデルも学習されています。
📦 インストール
このモデルを使用する最も簡単な方法は、.safetensorsモデルとその.yaml設定ファイルを、他のControlNetモデルがインストールされているフォルダに配置することです。このフォルダはアプリケーションによって異なります。
auto1111で使用する場合は、webui/models/ControlNetフォルダに配置できます。webuiの拡張機能タブ(https://github.com/Mikubill/sd-webui-controlnet)を通じてインストールできるControlNet webui拡張機能を使用して読み込むことができます。ControlNetユニットを有効にし、入力画像をQRコードに設定してください。基本のStable Diffusionモデルに応じて、モデルをSD2.1または1.5バージョンに設定しないとエラーが発生します。事前処理は必要ありませんが、異なる結果を得るために反転事前処理を使用することもできます。生成には768の解像度が推奨されます。これにより、最終製品の詳細度が高まり、QRコードベースのアートワークの品質と効果が向上します。
📚 ドキュメント
性能と制限事項
これらのモデルはほとんどの場合で良好に機能しますが、100%正確ではないことに注意してください。場合によっては、QRコードの形状が期待通りに再現されないことがあります。QRコードの形状を強調するには、ControlNetの重みを増やすことができます。ただし、これにより出力のスタイルに悪影響を与える可能性があるため、注意が必要です。スキャンを最適化するには、誤り訂正モード'H'(30%)でQRコードを生成してください。
スタイルと形状のバランスを取るには、個々の入力と目的の出力、および適切なプロンプトに基づいて、制御重みを微調整する必要がある場合があります。一部のプロンプトは、重みを大幅に増やさないと機能しません。これらの要素間の適切なバランスを見つけるプロセスは、一部がアートであり、一部が科学です。最良の結果を得るには、解像度768でアートワークを生成することをお勧めします。これにより、最終製品の詳細度が高まり、QRコードベースのアートワークの品質と効果が向上します。
📄 ライセンス
このモデルは、OpenRAIL++ライセンスの下で提供されています。