模型概述
模型特點
模型能力
使用案例
🚀 Stable Diffusion v1 - 4 模型卡片
Stable Diffusion是一個潛在文本到圖像的擴散模型,能夠根據任何文本輸入生成逼真的圖像。本模型由Hugging Face使用蘋果的倉庫生成,該倉庫採用了ASCL許可協議。這裡的權重已轉換為Core ML格式,可在蘋果硅硬件上使用。
🚀 快速開始
本模型權重已轉換為Core ML格式,有4種Core ML權重變體:
coreml-stable-diffusion-v1-4
├── original
│ ├── compiled # Swift推理,“original”注意力機制
│ └── packages # Python推理,“original”注意力機制
└── split_einsum
├── compiled # Swift推理,“split_einsum”注意力機制
└── packages # Python推理,“split_einsum”注意力機制
詳情請參考https://huggingface.co/blog/diffusers-coreml 。
如果你需要適用於🧨 Diffusers庫的權重,請訪問此模型。
✨ 主要特性
- 基於擴散的文本到圖像生成模型,能夠根據文本提示生成和修改圖像。
- 採用固定的預訓練文本編碼器(CLIP ViT - L/14)。
- 權重已轉換為Core ML格式,可在蘋果硅硬件上使用。
📚 詳細文檔
模型詳情
- 開發者: Robin Rombach, Patrick Esser
- 模型類型: 基於擴散的文本到圖像生成模型
- 語言: 英語
- 許可證: CreativeML OpenRAIL M許可證 是一種Open RAIL M許可證,改編自BigScience和RAIL倡議在負責任的AI許可領域的聯合工作。有關我們許可證所基於的BLOOM Open RAIL許可證的文章。
- 模型描述: 這是一個可用於根據文本提示生成和修改圖像的模型。它是一個潛在擴散模型,採用了固定的預訓練文本編碼器(CLIP ViT - L/14),如Imagen論文中所建議。
- 更多信息資源: GitHub倉庫,論文。
- 引用方式:
@InProceedings{Rombach_2022_CVPR,
author = {Rombach, Robin and Blattmann, Andreas and Lorenz, Dominik and Esser, Patrick and Ommer, Bj\"orn},
title = {High-Resolution Image Synthesis With Latent Diffusion Models},
booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
month = {June},
year = {2022},
pages = {10684 - 10695}
}
使用說明
直接使用
該模型僅用於研究目的。可能的研究領域和任務包括:
- 安全部署有可能生成有害內容的模型。
- 探究和理解生成模型的侷限性和偏差。
- 生成藝術作品並用於設計和其他藝術過程。
- 教育或創意工具中的應用。
- 生成模型的研究。
排除使用的情況如下所述。
濫用、惡意使用和超出範圍使用
注意: 本節內容取自[DALLE - MINI模型卡片](https://huggingface.co/dalle - mini/dalle - mini),但同樣適用於Stable Diffusion。
該模型不應被用於故意創建或傳播對人造成敵對或疏離環境的圖像。這包括生成人們可預見會覺得不安、痛苦或冒犯的圖像;或傳播歷史或當前刻板印象的內容。
超出範圍使用
該模型並非用於對人或事件進行事實或真實的呈現,因此使用該模型生成此類內容超出了該模型的能力範圍。
濫用和惡意使用
使用該模型生成對個人殘忍的內容是對該模型的濫用。這包括但不限於:
- 生成貶低、非人化或以其他方式傷害人或其環境、文化、宗教等的表現形式。
- 故意推廣或傳播歧視性內容或有害刻板印象。
- 在未經個人同意的情況下冒充個人。
- 在可能看到的人未同意的情況下生成色情內容。
- 虛假和誤導性信息
- 嚴重暴力和血腥場面的表現形式
- 違反版權或許可材料使用條款的共享行為。
- 違反版權或許可材料使用條款的對其進行修改後的內容共享行為。
侷限性和偏差
侷限性
- 模型無法實現完美的照片級真實感。
- 模型無法渲染清晰可讀的文本。
- 模型在涉及組合性的更困難任務上表現不佳,例如渲染與“一個紅色立方體在藍色球體之上”對應的圖像。
- 面部和人物通常可能無法正確生成。
- 模型主要使用英語字幕進行訓練,在其他語言中的效果不佳。
- 模型的自動編碼部分存在信息損失。
- 模型在大規模數據集[LAION - 5B](https://laion.ai/blog/laion - 5b/)上進行訓練,該數據集包含成人內容,在沒有額外安全機制和考慮的情況下不適合用於產品。
- 未使用額外措施對數據集進行去重。因此,我們觀察到模型對訓練數據中重複的圖像有一定程度的記憶。可以在[https://rom1504.github.io/clip - retrieval/](https://rom1504.github.io/clip - retrieval/)上搜索訓練數據,以幫助檢測記憶的圖像。
偏差
雖然圖像生成模型的能力令人印象深刻,但它們也可能強化或加劇社會偏差。Stable Diffusion v1在[LAION - 2B(en)](https://laion.ai/blog/laion - 5b/)的子集上進行訓練,該數據集主要由英語描述的圖像組成。來自使用其他語言的社區和文化的文本和圖像可能未得到充分考慮。這影響了模型的整體輸出,因為白人文化和西方文化通常被設為默認。此外,模型使用非英語提示生成內容的能力明顯低於使用英語提示的情況。
安全模塊
該模型的預期使用方式是結合Diffusers中的安全檢查器。該檢查器通過將模型輸出與已知的硬編碼NSFW概念進行比對來工作。這些概念被故意隱藏,以降低對該過濾器進行逆向工程的可能性。具體來說,檢查器在圖像生成之後,在CLIPTextModel
的嵌入空間中比較有害概念的類別概率。這些概念與生成的圖像一起傳入模型,並與每個NSFW概念的手工設計權重進行比較。
訓練
訓練數據
模型開發者使用以下數據集對模型進行訓練:
- LAION - 2B (en) 及其子集(見下一節)
訓練過程
Stable Diffusion v1 - 4是一個潛在擴散模型,它將自動編碼器與在自動編碼器潛在空間中訓練的擴散模型相結合。在訓練過程中:
- 圖像通過編碼器進行編碼,將圖像轉換為潛在表示。自動編碼器使用相對下采樣因子8,將形狀為H x W x 3的圖像映射到形狀為H/f x W/f x 4的潛在表示。
- 文本提示通過ViT - L/14文本編碼器進行編碼。
- 文本編碼器的非池化輸出通過交叉注意力機制輸入到潛在擴散模型的UNet主幹中。
- 損失是添加到潛在表示中的噪聲與UNet預測之間的重建目標。
我們目前提供四個檢查點,訓練方式如下:
-
[
stable - diffusion - v1 - 1
](https://huggingface.co/CompVis/stable - diffusion - v1 - 1):在[laion2B - en](https://huggingface.co/datasets/laion/laion2B - en)上以分辨率256x256
進行237,000步訓練。在[laion - high - resolution](https://huggingface.co/datasets/laion/laion - high - resolution)(來自LAION - 5B的170M個分辨率>= 1024x1024
的示例)上以分辨率512x512
進行194,000步訓練。 -
[
stable - diffusion - v1 - 2
](https://huggingface.co/CompVis/stable - diffusion - v1 - 2):從stable - diffusion - v1 - 1
繼續訓練。在“laion - improved - aesthetics”(laion2B - en的一個子集,過濾為原始大小>= 512x512
、估計美學分數> 5.0
且估計水印概率< 0.5
的圖像。水印估計來自LAION - 5B元數據,美學分數使用[改進的美學估計器](https://github.com/christophschuhmann/improved - aesthetic - predictor)進行估計)上以分辨率512x512
進行515,000步訓練。 -
[
stable - diffusion - v1 - 3
](https://huggingface.co/CompVis/stable - diffusion - v1 - 3):從stable - diffusion - v1 - 2
繼續訓練。在“laion - improved - aesthetics”上以分辨率512x512
進行195,000步訓練,並以10%的概率丟棄文本條件以改進無分類器引導採樣。 -
[
stable - diffusion - v1 - 4
](https://huggingface.co/CompVis/stable - diffusion - v1 - 4):從stable - diffusion - v1 - 2
繼續訓練。在“laion - aesthetics v2 5+”上以分辨率512x512
進行225,000步訓練,並以10%的概率丟棄文本條件以改進無分類器引導採樣。 -
硬件: 32 x 8 x A100 GPU
-
優化器: AdamW
-
梯度累積: 2
-
批次大小: 32 x 8 x 2 x 4 = 2048
-
學習率: 在10,000步內熱身到0.0001,然後保持不變
評估結果
使用不同的無分類器引導尺度(1.5、2.0、3.0、4.0、5.0、6.0、7.0、8.0)和50步PLMS採樣進行的評估顯示了檢查點的相對改進:

使用50步PLMS採樣和來自COCO2017驗證集的10000個隨機提示進行評估,在512x512分辨率下進行。未針對FID分數進行優化。
環境影響
Stable Diffusion v1估計排放量
基於該信息,我們使用Lacoste等人(2019)中提出的機器學習影響計算器估計了以下CO2排放量。利用硬件、運行時間、雲服務提供商和計算區域來估計碳影響。
- 硬件類型: A100 PCIe 40GB
- 使用時長: 150000小時
- 雲服務提供商: AWS
- 計算區域: 美國東部
- 碳排放(功耗x時間x基於電網位置產生的碳): 11250 kg CO2當量
📄 許可證
該模型使用[CreativeML OpenRAIL M許可證](https://huggingface.co/spaces/CompVis/stable - diffusion - license)。









