🚀 T2I Adapter - Depth
T2I Adapter是一个为Stable Diffusion提供额外条件的网络。每个T2I检查点接受不同类型的条件作为输入,并与特定的基础Stable Diffusion检查点一起使用。此检查点为Stable Diffusion 1.5检查点提供深度条件。
✨ 主要特性
- 为Stable Diffusion提供额外的深度条件。
- 不同的T2I检查点可接受不同类型的条件输入。
📦 安装指南
依赖安装
pip install diffusers transformers controlnet_aux
💻 使用示例
基础用法
from controlnet_aux import MidasDetector
from PIL import Image
from diffusers import T2IAdapter, StableDiffusionAdapterPipeline
import torch
midas = MidasDetector.from_pretrained("lllyasviel/Annotators")
image = Image.open('./images/depth_input.png')
image = midas(image)
image.save('./images/depth.png')
adapter = T2IAdapter.from_pretrained("TencentARC/t2iadapter_depth_sd15v2", torch_dtype=torch.float16)
pipe = StableDiffusionAdapterPipeline.from_pretrained(
"runwayml/stable-diffusion-v1-5", adapter=adapter, safety_checker=None, torch_dtype=torch.float16, variant="fp16"
)
pipe.to('cuda')
generator = torch.Generator().manual_seed(1)
depth_out = pipe(prompt="storm trooper giving a speech", image=image, generator=generator).images[0]
depth_out.save('./images/depth_output.png')
示例图片

📚 详细文档
模型详情
属性 |
详情 |
开发者 |
T2I-Adapter: Learning Adapters to Dig out More Controllable Ability for Text-to-Image Diffusion Models |
模型类型 |
基于扩散的文本到图像生成模型 |
语言 |
英文 |
许可证 |
Apache 2.0 |
更多信息资源 |
GitHub仓库,论文 |
引用方式 |
@misc{ title={T2I-Adapter: Learning Adapters to Dig out More Controllable Ability for Text-to-Image Diffusion Models}, author={Chong Mou, Xintao Wang, Liangbin Xie, Yanze Wu, Jian Zhang, Zhongang Qi, Ying Shan, Xiaohu Qie}, year={2023}, eprint={2302.08453}, archivePrefix={arXiv}, primaryClass={cs.CV} } |
检查点
📄 许可证
本模型使用Apache 2.0许可证。