🚀 我的韓語穩定擴散模型 v1-5
本項目基於 runwayml/stable-diffusion-v1-5 模型,僅將文本編碼器和分詞器替換為我自己的 Bingsu/clip-vit-large-patch14-ko。如果你正在尋找一個在實際應用中表現出色的韓語擴散模型,可參考以下項目:
🚀 快速開始
安裝依賴
pip install transformers accelerate>=0.14.0 diffusers>=0.7.2 ftfy
代碼示例
import torch
from diffusers import StableDiffusionPipeline, EulerAncestralDiscreteScheduler
repo = "Bingsu/my-korean-stable-diffusion-v1-5"
euler_ancestral_scheduler = EulerAncestralDiscreteScheduler.from_config(repo, subfolder="scheduler")
pipe = StableDiffusionPipeline.from_pretrained(
repo, scheduler=euler_ancestral_scheduler, torch_dtype=torch.float16,
)
pipe.to("cuda")
生成圖像
prompt = "화성에서 말을 타고 있는 우주인 사진"
seed = 23957
generator = torch.Generator("cuda").manual_seed(seed)
image = pipe(prompt, num_inference_steps=25, generator=generator).images[0]
顯示圖像
image

💻 使用示例
基礎用法
prompt = "고퀄리티 하얀 고양이 사진"
seed = 46399
generator = torch.Generator("cuda").manual_seed(seed)
pipe(prompt, num_inference_steps=25, generator=generator).images[0]

高級用法
prompt = "고퀄리티 하얀 고양이 사진, 피아노를 치는 중"
seed = 12345
generator = torch.Generator("cuda").manual_seed(seed)
pipe(prompt, num_inference_steps=25, generator=generator).images[0]

prompt = "달과 별이 보이는 밤하늘을 배경으로 한 해변가 사진"
seed = 1234246
generator = torch.Generator("cuda").manual_seed(seed)
pipe(prompt, num_inference_steps=25, generator=generator).images[0]

📚 詳細文檔
直接使用
本模型僅用於研究目的,可能的研究領域和任務包括:
- 安全部署有可能生成有害內容的模型。
- 探究和理解生成模型的侷限性和偏差。
- 生成藝術作品並應用於設計和其他藝術過程。
- 在教育或創意工具中的應用。
- 對生成模型的研究。
禁止用途
本模型不得用於故意創建或傳播對他人造成敵對或疏離環境的圖像。這包括生成人們可預見會感到不安、痛苦或冒犯的圖像;或傳播歷史或當前刻板印象的內容。
超出適用範圍的使用
本模型並非用於對人物或事件進行事實性或真實性的呈現,因此使用該模型生成此類內容超出了其能力範圍。
濫用和惡意使用
使用該模型生成對個人殘忍的內容屬於對本模型的濫用。這包括但不限於:
- 生成貶低、非人化或以其他方式傷害他人或其環境、文化、宗教等的表現形式。
- 故意推廣或傳播歧視性內容或有害刻板印象。
- 在未經他人同意的情況下冒充他人。
- 未經可能看到該內容的人的同意而生成性內容。
- 虛假和誤導性信息。
- 呈現嚴重暴力和血腥的內容。
- 違反版權或許可材料使用條款進行分享。
- 違反版權或許可材料使用條款對其進行修改後分享。
侷限性和偏差
侷限性
- 模型無法實現完美的照片級真實感。
- 模型無法渲染清晰可讀的文本。
- 模型在涉及組合性的更困難任務上表現不佳,例如渲染與 “藍色球體上的紅色立方體” 對應的圖像。
- 面部和人物的生成可能不夠理想。
- 模型主要使用英文標題進行訓練,在其他語言中的表現不佳。
- 模型的自動編碼部分存在信息損失。
- 模型在大規模數據集 LAION-5B 上進行訓練,該數據集包含成人內容,在沒有額外安全機制和考慮的情況下不適合用於產品。
- 數據集未進行去重處理,因此對於訓練數據中重複的圖像,模型可能會出現一定程度的記憶現象。可通過 https://rom1504.github.io/clip-retrieval/ 搜索訓練數據,以協助檢測記憶的圖像。
偏差
雖然圖像生成模型的能力令人印象深刻,但它們也可能強化或加劇社會偏差。Stable Diffusion v1 在 LAION-2B(en) 的子集上進行訓練,該數據集主要包含英文描述的圖像。使用其他語言的社區和文化的文本和圖像可能未得到充分考慮,這影響了模型的整體輸出,因為白人文化和西方文化往往被設定為默認標準。此外,模型使用非英文提示生成內容的能力明顯不如使用英文提示。
安全模塊
本模型的預期使用方式是結合 Diffusers 中的安全檢查器。該檢查器通過將模型輸出與已知的硬編碼 NSFW 概念進行比對來工作。為降低該過濾器被逆向工程的可能性,這些概念被故意隱藏。具體而言,檢查器在圖像生成後,在 CLIPTextModel
的嵌入空間中比較有害概念的類別概率。這些概念與生成的圖像一起傳入模型,並與每個 NSFW 概念的手工設計權重進行比較。
📄 許可證
本項目採用 CreativeML OpenRAIL-M 許可證。