模型概述
模型特點
模型能力
使用案例
🚀 安全穩定擴散模型卡
安全穩定擴散(Safe Stable Diffusion)是一種潛在文本到圖像的擴散模型,能夠根據任何文本輸入生成逼真的圖像。該模型旨在抑制其他大型擴散模型常常意外生成的“不適當”圖像。
安全穩定擴散與穩定擴散 v1.5 共享權重。更多信息請查看 穩定擴散 v1.5 和 ü§ó 的穩定擴散博客。
目前,你可以通過 ml-research GitHub 倉庫 使用該模型,不久後也將支持 üß®Diffusers 庫。查看 此拉取請求 以獲取更新信息。
✨ 主要特性
- 能夠根據文本輸入生成逼真的圖像。
- 抑制其他大型擴散模型常意外生成的“不適當”圖像。
- 與穩定擴散 v1.5 共享權重。
📦 安裝指南
原始 GitHub 倉庫安裝步驟
- 下載此模型的任意一個檢查點:
- v1-5-pruned-emaonly.ckpt - 4.27GB,僅包含 EMA 權重,使用較少的顯存,適合推理。
- v1-5-pruned.ckpt - 7.7GB,包含 EMA 和非 EMA 權重,使用較多的顯存,適合微調。
- 安裝安全潛在擴散庫:
$ pip install git+https://github.com/ml-research/safe-latent-diffusion.git
- 按如下方式加載 SLD 管道:
from sld import SLDPipeline
device='cuda'
#####################
# 本地權重克隆路徑
ckpt_path = ''
####################
pipe = SLDPipeline.from_pretrained(
ckpt_path,
).to(device)
💻 使用示例
基礎用法
from sld import SLDPipeline
device='cuda'
# 本地權重克隆路徑
ckpt_path = ''
pipe = SLDPipeline.from_pretrained(
ckpt_path,
).to(device)
📚 詳細文檔
“不適當”內容的定義
什麼被認為是不適當的圖像可能因上下文、環境、文化和社會傾向以及個人因素而異,總體上具有高度主觀性。在這項工作中,我們對不適當內容的定義基於 Gebru 等人的研究:
[直接查看時] 可能具有冒犯性、侮辱性、威脅性,或以其他方式引起焦慮的數據。
--Gebru, Timnit, et al. "Datasheets for datasets," (2021)
具體而言,我們認為以下類別的圖像屬於不適當內容:仇恨、騷擾、暴力、自殘、色情內容、驚悚圖像、非法活動。請注意,不適當性不限於這些概念,不同文化之間存在差異,並且不斷演變。
模型詳情
屬性 | 詳情 |
---|---|
開發者 | Patrick Schramowski, Manuel Brack |
模型類型 | 基於擴散的文本到圖像生成模型,可抑制不適當內容 |
語言 | 英語 |
許可證 | CreativeML OpenRAIL M 許可證 是一種 Open RAIL M 許可證,改編自 BigScience 和 RAIL Initiative 在負責任的人工智能許可領域的聯合工作。另見 關於 BLOOM Open RAIL 許可證的文章,我們的許可證基於此。 |
模型描述 | 這是一個可用於根據文本提示生成和修改圖像的模型。它是一個 潛在擴散模型,使用固定的預訓練文本編碼器 (CLIP ViT-L/14),如 Imagen 論文 中所建議。該模型積極抑制不適當內容的生成。 |
更多信息資源 | GitHub 倉庫,論文 |
引用格式 |
@article{schramowski2022safe,
title={Safe Latent Diffusion: Mitigating Inappropriate Degeneration in Diffusion Models},
author={Patrick Schramowski and Manuel Brack and Björn Deiseroth and Kristian Kersting},
year={2022},
journal={arXiv preprint arXiv:2211.05105}
}
用途
直接使用
該模型僅用於研究目的。可能的研究領域和任務包括:
- 安全部署有可能生成有害內容的模型。
- 探索和理解生成模型的侷限性和偏差。
- 生成藝術作品並用於設計和其他藝術過程。
- 在教育或創意工具中的應用。
- 對生成模型的研究。
以下是排除的使用情況。
濫用、惡意使用和超出範圍的使用
注意:本節內容取自 DALLE - MINI 模型卡,同樣適用於安全穩定擴散。
該模型不應被用於故意創建或傳播為人們創造敵對或疏離環境的圖像。這包括生成人們可預見會感到不安、痛苦或冒犯的圖像;或傳播歷史或當前刻板印象的內容。
超出範圍的使用
該模型並非用於生成關於人物或事件的事實或真實表述,因此使用該模型生成此類內容超出了該模型的能力範圍。此外,默認的安全概念僅減少與上述類別(仇恨、騷擾、暴力、自殘、色情內容、驚悚圖像、非法活動)相關的內容。減輕其他不適當材料超出了該模型的範圍,需要改變安全概念。此外,該方法依賴於模型學習到的這些概念的表示來識別和糾正相應的內容。模型本身無法將圖像與我們對不適當性的文本定義相關聯的情況也超出了範圍。
濫用和惡意使用
使用該模型生成對個人殘忍的內容是對該模型的濫用。這包括但不限於:
- 生成貶低、非人化或以其他方式傷害人們或其環境、文化、宗教等的表述。
- 故意推廣或傳播歧視性內容或有害的刻板印象。
- 在未經個人同意的情況下模仿他們。
- 在可能看到的人未同意的情況下生成色情內容。
- 虛假和誤導性信息。
- 令人震驚的暴力和血腥場面的表述。
- 違反使用條款分享受版權保護或有許可證的材料。
- 違反使用條款分享受版權保護或有許可證材料的修改版本。
侷限性和偏差
侷限性
- 模型無法實現完美的逼真度。
- 模型無法渲染清晰可讀的文本。
- 模型在涉及組合性的更困難任務上表現不佳,例如渲染對應於“一個紅色立方體在藍色球體之上”的圖像。
- 面部和人物總體上可能無法正確生成。
- 模型主要使用英語字幕進行訓練,在其他語言中的效果不佳。
- 模型的自動編碼部分存在信息損失。
- 模型在大規模數據集 LAION - 5B 上進行訓練,該數據集包含成人內容,在沒有額外安全機制和考慮的情況下不適合產品使用。
- 未使用額外措施對數據集進行去重。因此,我們觀察到模型對訓練數據中重複的圖像有一定程度的記憶。可以在 [https://rom1504.github.io/clip - retrieval/](https://rom1504.github.io/clip - retrieval/) 上搜索訓練數據,以幫助檢測記憶的圖像。
偏差
雖然圖像生成模型的能力令人印象深刻,但它們也可能強化或加劇社會偏差。穩定擴散 v1 在 LAION - 2B(en) 的子集上進行訓練,該數據集主要由英語描述的圖像組成。來自使用其他語言的社區和文化的文本和圖像可能沒有得到充分考慮。這影響了模型的整體輸出,因為白人和西方文化通常被設定為默認。此外,模型使用非英語提示生成內容的能力明顯低於使用英語提示。另外,模型對不適當性的概念和所包含概念的定義同樣偏向於西方、英語的認知。
安全模塊
該模型的預期用途是與 Diffusers 中的 安全檢查器 一起使用。該檢查器通過將模型輸出與已知的硬編碼 NSFW 概念進行比較來工作。這些概念被故意隱藏以降低逆向工程此過濾器的可能性。具體而言,檢查器在圖像生成後,在 CLIPTextModel
的嵌入空間中比較有害概念的類別概率。這些概念與生成的圖像一起傳入模型,並與每個 NSFW 概念的手工設計權重進行比較。
訓練
訓練數據
模型開發者使用以下數據集訓練模型:
- LAION - 2B (en) 及其子集(見下一節)
訓練過程
有關基礎穩定擴散 v1.5 的訓練過程,請查看其 模型卡。安全穩定擴散不進行任何額外的訓練,僅對穩定擴散 v1.4 模型進行廣泛評估。
- 硬件:A100 GPUs
評估結果
使用 I2P 基準 和穩定擴散 v1.4 檢查點對不適當性緩解進行評估。
類別 | 穩定擴散 | SLD - 弱 | SLD - 中等 | SLD - 強 | SLD - 最大 |
---|---|---|---|---|---|
仇恨 | 0.40 | 0.27 | 0.20 | 0.15 | 0.09 |
騷擾 | 0.34 | 0.24 | 0.17 | 0.13 | 0.09 |
暴力 | 0.43 | 0.36 | 0.23 | 0.17 | 0.14 |
自殘 | 0.40 | 0.27 | 0.16 | 0.10 | 0.07 |
色情 | 0.35 | 0.23 | 0.14 | 0.09 | 0.06 |
驚悚 | 0.52 | 0.41 | 0.30 | 0.20 | 0.13 |
非法活動 | 0.34 | 0.23 | 0.14 | 0.09 | 0.06 |
總體 | 0.39 | 0.29 | 0.19 | 0.13 | 0.09 |
該表顯示了在 I2P 提示下生成不適當內容的概率。SLD 配置指的是以下超參數:
配置 | sld_warmup_steps | sld_guidance_scale | sld_threshold | sld_momentum_scale | sld_mom_beta |
---|---|---|---|---|---|
Hyp - 弱 | 15 | 200 | 0.0 | 0.0 | - |
Hyp - 中等 | 10 | 1000 | 0.01 | 0.3 | 0.4 |
Hyp - 強 | 7 | 2000 | 0.025 | 0.5 | 0.7 |
Hyp - 最大 | 0 | 5000 | 1.0 | 0.5 | 0.7 |
對每個 I2G 提示使用 10 張圖像進行評估。
環境影響
安全穩定擴散估計排放量
在評估和開發我們的方法時,我們使用 Lacoste 等人 (2019) 中提出的 機器學習影響計算器 估計了以下 CO2 排放量。利用硬件、運行時間和計算區域來估計碳影響。
- 硬件類型:A100 PCIe 40GB & A100 SXM4 80GB
- 使用時長:130 小時
- 雲服務提供商:私有基礎設施
- 計算區域:德國
- 碳排放(功耗 x 時間 x 基於電網位置產生的碳):20.62 kg CO2 當量
引用
@article{schramowski2022safe,
title={Safe Latent Diffusion: Mitigating Inappropriate Degeneration in Diffusion Models},
author={Patrick Schramowski and Manuel Brack and Björn Deiseroth and Kristian Kersting},
year={2022},
journal={arXiv preprint arXiv:2211.05105}
}
此模型卡由 Manuel Brack 編寫,基於 穩定擴散 v1.5 模型卡。









