🚀 Stable Diffusion v2-1-unclip模型卡片
本模型卡片主要介紹與Stable Diffusion v2-1模型相關的模型,代碼庫可在此處獲取。
stable-diffusion-2-1-unclip
是Stable Diffusion 2.1的微調版本,經過修改後,除文本提示外,還能接受(有噪聲的)CLIP圖像嵌入,可用於創建圖像變體(示例),也可與文本到圖像的CLIP先驗模型串聯使用。添加到圖像嵌入中的噪聲量可通過 noise_level
指定(0表示無噪聲,1000表示全噪聲)。
🚀 快速開始
使用 🤗的Diffusers庫 可以簡單高效地運行Stable Diffusion UnCLIP 2-1-small。
pip install diffusers transformers accelerate scipy safetensors
運行管道(如果不更換調度器,將使用默認的DDIM運行,在本示例中,我們將其更換為 DPMSolverMultistepScheduler
):
from diffusers import DiffusionPipeline
from diffusers.utils import load_image
import torch
pipe = DiffusionPipeline.from_pretrained("stabilityai/stable-diffusion-2-1-unclip-small", torch_dtype=torch.float16)
pipe.to("cuda")
url = "https://huggingface.co/datasets/hf-internal-testing/diffusers-images/resolve/main/stable_unclip/tarsila_do_amaral.png"
image = load_image(url)
image = pipe(image).images[0]

✨ 主要特性
- 除文本提示外,還能接受(有噪聲的)CLIP圖像嵌入。
- 可用於創建圖像變體或與文本到圖像的CLIP先驗模型串聯使用。
- 可通過
noise_level
指定添加到圖像嵌入中的噪聲量。
📚 詳細文檔
模型詳情
@InProceedings{Rombach_2022_CVPR,
author = {Rombach, Robin and Blattmann, Andreas and Lorenz, Dominik and Esser, Patrick and Ommer, Bj\"orn},
title = {High-Resolution Image Synthesis With Latent Diffusion Models},
booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
month = {June},
year = {2022},
pages = {10684-10695}
}
使用方式
直接使用
該模型僅用於研究目的。可能的研究領域和任務包括:
- 安全部署有可能生成有害內容的模型。
- 探索和理解生成模型的侷限性和偏差。
- 生成藝術作品並用於設計和其他藝術過程。
- 在教育或創意工具中的應用。
- 對生成模型的研究。
以下是排除的使用情況。
濫用、惡意使用和超出範圍的使用
注意: 本節內容最初來自 DALLE-MINI模型卡片,曾用於Stable Diffusion v1,同樣適用於Stable Diffusion v2。
該模型不應被用於故意創建或傳播會給人們造成敵對或疏離環境的圖像。這包括生成人們可預見會感到不安、痛苦或冒犯的圖像,或傳播歷史或當前刻板印象的內容。
超出範圍的使用
該模型並非用於對人物或事件進行事實或真實的呈現,因此使用該模型生成此類內容超出了其能力範圍。
濫用和惡意使用
使用該模型生成對個人殘酷的內容屬於對該模型的濫用。這包括但不限於:
- 生成貶低、非人化或以其他方式傷害人們或其環境、文化、宗教等的表現形式。
- 故意推廣或傳播歧視性內容或有害刻板印象。
- 在未經個人同意的情況下冒充他人。
- 未經可能看到該內容的人的同意而生成色情內容。
- 虛假和誤導性信息
- 呈現嚴重暴力和血腥場景
- 違反版權或許可材料的使用條款進行分享。
- 違反版權或許可材料的使用條款分享經過修改的內容。
侷限性和偏差
侷限性
- 該模型無法實現完美的照片級真實感。
- 該模型無法渲染清晰可讀的文本。
- 該模型在涉及組合性的更復雜任務上表現不佳,例如渲染與 “藍色球體上的紅色立方體” 對應的圖像。
- 面部和人物通常可能無法正確生成。
- 該模型主要使用英語字幕進行訓練,在其他語言中的效果不佳。
- 該模型的自動編碼部分存在信息損失。
- 該模型在大規模數據集 LAION-5B 的一個子集上進行訓練,該數據集包含成人、暴力和色情內容。為部分緩解這一問題,我們使用LAION的NSFW檢測器對數據集進行了過濾(詳見訓練部分)。
偏差
雖然圖像生成模型的能力令人印象深刻,但它們也可能強化或加劇社會偏差。Stable Diffusion主要在 LAION-2B(en) 的子集上進行訓練,該子集包含的圖像僅限於英語描述。來自使用其他語言的社區和文化的文本和圖像可能未得到充分考慮。這影響了模型的整體輸出,因為白人和西方文化通常被設定為默認。此外,該模型使用非英語提示生成內容的能力明顯低於使用英語提示的情況。Stable Diffusion v2在很大程度上反映並加劇了這些偏差,因此無論輸入內容或意圖如何,都建議用戶謹慎使用。
訓練
訓練數據
模型開發者使用以下數據集對模型進行訓練:
- LAION-5B及其子集(詳情如下)。訓練數據進一步使用LAION的NSFW檢測器進行過濾,“p_unsafe” 分數為0.1(保守值)。有關更多詳細信息,請參考LAION-5B的 NeurIPS 2022 論文和相關評審討論。
環境影響
Stable Diffusion v1 估計排放量
基於上述信息,我們使用 Lacoste等人(2019) 提出的 機器學習影響計算器 估計了以下二氧化碳排放量。我們利用硬件、運行時間、雲服務提供商和計算區域來估算碳影響。
屬性 |
詳情 |
硬件類型 |
A100 PCIe 40GB |
使用時長 |
200000小時 |
雲服務提供商 |
AWS |
計算區域 |
美國東部 |
碳排放(功耗 x 時間 x 基於電網位置產生的碳排放量) |
15000千克二氧化碳當量 |
引用
@InProceedings{Rombach_2022_CVPR,
author = {Rombach, Robin and Blattmann, Andreas and Lorenz, Dominik and Esser, Patrick and Ommer, Bj\"orn},
title = {High-Resolution Image Synthesis With Latent Diffusion Models},
booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
month = {June},
year = {2022},
pages = {10684-10695}
}
本模型卡片由Robin Rombach、Patrick Esser和David Ha撰寫,基於 Stable Diffusion v1 和 DALL-E Mini模型卡片。