🚀 QRコード条件付きControlNetモデル for Stable Diffusion 1.5
Stable Diffusion 1.5用のQRコード条件付きControlNetモデルで、画像生成をコントロールします。
🚀 クイックスタート
このリポジトリには、Stable Diffusion v1.5用のQRコード条件付きControlNetのsafetensorsとdiffusersバージョンが含まれています。Stable Diffusion 2.1バージョンは、特定のニーズに合わせて開発されたため、若干効果的です。ただし、この1.5バージョンのモデルも、古いバージョンを使用している人のために同じデータセットで学習されています。
✨ 主な機能
このモデルは、QRコードを条件としてStable Diffusion 1.5の画像生成をコントロールすることができます。
📦 インストール
このモデルを使用する最も簡単な方法は、.safetensorsモデルとその.yaml設定ファイルを、他のControlNetモデルがインストールされているフォルダに配置することです。このフォルダはアプリケーションによって異なります。
auto1111で使用する場合は、webui/models/ControlNetフォルダに配置することができます。ControlNetのWebUI拡張機能を使用して読み込むことができ、これはWebUIの拡張タブからインストールできます(https://github.com/Mikubill/sd-webui-controlnet)。ControlNetユニットを有効にし、入力画像をQRコードに設定してください。ベースのStable Diffusionモデルに応じて、モデルをSD2.1または1.5バージョンに設定しないとエラーになります。前処理は必要ありませんが、結果のバリエーションを得るために反転前処理を使用することもできます。生成には768の解像度が推奨されます。
💻 使用例
基本的な使用法
pip -q install diffusers transformers accelerate torch xformers
import torch
from PIL import Image
from diffusers import StableDiffusionControlNetImg2ImgPipeline, ControlNetModel, DDIMScheduler
from diffusers.utils import load_image
controlnet = ControlNetModel.from_pretrained("DionTimmer/controlnet_qrcode-control_v1p_sd15",
torch_dtype=torch.float16)
pipe = StableDiffusionControlNetImg2ImgPipeline.from_pretrained(
"runwayml/stable-diffusion-v1-5",
controlnet=controlnet,
safety_checker=None,
torch_dtype=torch.float16
)
pipe.enable_xformers_memory_efficient_attention()
pipe.scheduler = DDIMScheduler.from_config(pipe.scheduler.config)
pipe.enable_model_cpu_offload()
def resize_for_condition_image(input_image: Image, resolution: int):
input_image = input_image.convert("RGB")
W, H = input_image.size
k = float(resolution) / min(H, W)
H *= k
W *= k
H = int(round(H / 64.0)) * 64
W = int(round(W / 64.0)) * 64
img = input_image.resize((W, H), resample=Image.LANCZOS)
return img
source_image = load_image("https://s3.amazonaws.com/moonup/production/uploads/6064e095abd8d3692e3e2ed6/A_RqHaAM6YHBodPLwqtjn.png")
init_image = load_image("https://s3.amazonaws.com/moonup/production/uploads/noauth/KfMBABpOwIuNolv1pe3qX.jpeg")
condition_image = resize_for_condition_image(source_image, 768)
init_image = resize_for_condition_image(init_image, 768)
generator = torch.manual_seed(123121231)
image = pipe(prompt="a bilboard in NYC with a qrcode",
negative_prompt="ugly, disfigured, low quality, blurry, nsfw",
image=init_image,
control_image=condition_image,
width=768,
height=768,
guidance_scale=20,
controlnet_conditioning_scale=1.5,
generator=generator,
strength=0.9,
num_inference_steps=150,
)
image.images[0]
📚 ドキュメント
性能と制限
これらのモデルはほとんどの場合で良好に機能しますが、100%正確ではありません。場合によっては、QRコードの形状が期待通りに再現されないことがあります。QRコードの形状を強調するために、ControlNetの重みを増やすことができます。ただし、これは出力のスタイルに悪影響を与える可能性があるため、注意が必要です。スキャンを最適化するために、誤り訂正モード'H'(30%)でQRコードを生成してください。
スタイルと形状のバランスを取るには、個々の入力と目的の出力、および適切なプロンプトに基づいて、コントロール重みを微調整する必要があります。一部のプロンプトは、重みを大幅に増やさないと機能しません。これらの要素間の適切なバランスを見つけるプロセスは、一部がアートで一部が科学です。最良の結果を得るためには、768の解像度でアートワークを生成することをお勧めします。これにより、最終製品の詳細度が向上し、QRコードベースのアートワークの品質と効果が高まります。
📄 ライセンス
openrail++
属性 |
详情 |
ライブラリ名 |
diffusers |
パイプラインタグ |
画像変換 |
ライセンス |
openrail++ |
