🚀 Stable Diffusion v2-1-unclip (small) 模型卡片
Stable Diffusion v2-1-unclip (small) 是一個基於文本生成圖像的模型,它在 Stable Diffusion 2.1 基礎上微調而來,支持通過文本提示和圖像嵌入生成圖像,可用於圖像變體生成等任務。
🚀 快速開始
使用 🤗's Diffusers 庫 可以簡單高效地運行 Stable Diffusion UnCLIP 2-1-small。
安裝依賴
pip install diffusers transformers accelerate scipy safetensors
運行示例
from diffusers import DiffusionPipeline
from diffusers.utils import load_image
import torch
pipe = DiffusionPipeline.from_pretrained("stabilityai/stable-diffusion-2-1-unclip-small", torch_dtype=torch.float16)
pipe.to("cuda")
url = "https://huggingface.co/datasets/hf-internal-testing/diffusers-images/resolve/main/stable_unclip/tarsila_do_amaral.png"
image = load_image(url)
image = pipe(image).images[0]

✨ 主要特性
- 支持圖像嵌入:除文本提示外,還可接受(有噪聲的)CLIP 圖像嵌入,用於生成圖像變體。
- 噪聲級別可調節:可通過
noise_level
參數指定添加到圖像嵌入的噪聲量。
📚 詳細文檔
模型詳情
屬性 |
詳情 |
開發者 |
Robin Rombach, Patrick Esser |
模型類型 |
基於擴散的文本到圖像生成模型 |
語言 |
英文 |
許可證 |
CreativeML Open RAIL++-M 許可證 |
模型描述 |
這是一個可根據文本提示生成和修改圖像的模型,是一個 潛在擴散模型,使用固定的預訓練文本編碼器 (OpenCLIP-ViT/H)。 |
更多信息資源 |
GitHub 倉庫 |
引用格式 |
@InProceedings{Rombach_2022_CVPR, author = {Rombach, Robin and Blattmann, Andreas and Lorenz, Dominik and Esser, Patrick and Ommer, Bj"orn}, title = {High-Resolution Image Synthesis With Latent Diffusion Models}, booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)}, month = {June}, year = {2022}, pages = {10684-10695} } |
使用方式
直接使用
該模型僅用於研究目的,可能的研究領域和任務包括:
- 安全部署有可能生成有害內容的模型。
- 探究和理解生成模型的侷限性和偏差。
- 藝術品生成,以及在設計和其他藝術過程中的應用。
- 在教育或創意工具中的應用。
- 生成模型的研究。
禁止使用場景
該模型不得用於故意創建或傳播對人造成敵對或排斥環境的圖像,包括生成人們可預見會感到不安、痛苦或冒犯的圖像,或傳播歷史或當前刻板印象的內容。具體包括但不限於:
- 生成貶低、非人化或以其他方式傷害人或其環境、文化、宗教等的表徵。
- 故意推廣或傳播歧視性內容或有害刻板印象。
- 在未經同意的情況下冒充個人。
- 未經可能看到該內容的人的同意而發佈性內容。
- 虛假和誤導性信息。
- 嚴重暴力和血腥的表徵。
- 違反使用條款分享受版權保護或許可的材料。
- 違反使用條款分享受版權保護或許可材料的修改內容。
侷限性和偏差
侷限性
- 模型無法實現完美的照片寫實主義。
- 模型無法渲染清晰可讀的文本。
- 模型在涉及組合性的更困難任務上表現不佳,例如渲染與 “一個紅色立方體在藍色球體上” 對應的圖像。
- 面部和人物通常可能無法正確生成。
- 模型主要使用英文標題進行訓練,在其他語言中的效果不佳。
- 模型的自動編碼部分存在信息損失。
- 模型在大規模數據集 LAION-5B 的一個子集上訓練,該數據集包含成人、暴力和性內容。為部分緩解此問題,使用 LAION 的 NFSW 檢測器對數據集進行了過濾(見訓練部分)。
偏差
雖然圖像生成模型的能力令人印象深刻,但它們也可能強化或加劇社會偏差。Stable Diffusion 主要在 LAION-2B(en) 的子集上訓練,該數據集的圖像僅限於英文描述。使用其他語言的社區和文化的文本和圖像可能未得到充分考慮。這影響了模型的整體輸出,因為白人和西方文化通常被設為默認。此外,模型使用非英文提示生成內容的能力明顯低於使用英文提示的能力。Stable Diffusion v2 反映並加劇了這種偏差,無論輸入或意圖如何,都建議觀眾謹慎使用。
訓練信息
訓練數據:模型開發者使用以下數據集訓練模型:
- LAION-5B 及其子集(詳情如下)。訓練數據使用 LAION 的 NSFW 檢測器進一步過濾,“p_unsafe” 分數為 0.1(保守)。更多詳情,請參考 LAION-5B 的 NeurIPS 2022 論文和關於該主題的評審討論。
環境影響
Stable Diffusion v1 估計排放量:根據相關信息,使用 Lacoste 等人 (2019) 中提出的 機器學習影響計算器 估計以下 CO2 排放量。使用硬件、運行時間、雲服務提供商和計算區域來估計碳影響。
- 硬件類型:A100 PCIe 40GB
- 使用時長:200000 小時
- 雲服務提供商:AWS
- 計算區域:美國東部
- 碳排放(功耗 x 時間 x 基於電網位置產生的碳):15000 千克 CO2 當量
📄 許可證
該模型使用 CreativeML Open RAIL++-M 許可證。