🚀 無限複製者模型卡片
無限複製者(Unlimited Replicant)是一款專為AI藝術打造的圖像生成AI,旨在替代信息洩露的Novel AI Diffusion,為用戶提供優質的圖像生成體驗。

標題:來自無限天空的複製者。
英文版本請見此處
🚀 快速開始
無限複製者(Unlimited Replicant)是為替代信息洩露的Novel AI Diffusion而開發的、專注於AI藝術的圖像生成AI。
📄 許可證
本模型採用雙許可證,即在原許可證CreativeML Open RAIL++ - M License的基礎上,除特殊情況外,增加了商用使用禁止條款,並加入了類似AGPL的相關內容。
增加除特殊情況外商用使用禁止條款,是因為擔心可能會對創作行業產生不利影響。在營利性企業工作的人員,請與公司法務部門人員進行協商。對於僅用於個人興趣的用戶,只要遵守一般常識,可放心使用。
若您有商用需求,請另行聯繫 (ozaki.yasunori@outlook.com) 進行協商。
🔖 法律聲明
本模型在日本創建,因此適用日本法律。
本模型的訓練依據日本著作權法第30條之4,我們主張其具有合法性。同時,就本模型的分發而言,我們認為無論是依據著作權法還是刑法第175條,都不構成正犯或幫助犯。詳細見解請參考柿沼律師的觀點。
不過,如許可證所述,本模型的生成結果請按照各項法律法規進行處理。
📦 安裝指南
模型可從 safetensors格式 下載。以下為不同使用方式的安裝說明:
Web UI方式
與Stable Diffusion v2的使用方法相同,請將safetensor格式的模型文件放入模型文件夾。詳細安裝方法請參考此文章。
建議安裝xformers並開啟 --xformers --disable-nan-check
選項;若無法安裝,可開啟 --no-half
選項。
Diffusers方式
請使用 🤗's Diffusers library 庫。
首先,執行以下腳本安裝庫:
pip install --upgrade git+https://github.com/huggingface/diffusers.git transformers accelerate scipy
💻 使用示例
基礎用法
本模型的使用方法與Stable Diffusion v2相同,下面為您提供兩種使用模式:
from diffusers import StableDiffusionPipeline, EulerAncestralDiscreteScheduler
import torch
model_id = "alfredplpl/unlimited-replicant"
scheduler = EulerAncestralDiscreteScheduler.from_pretrained(model_id, subfolder="scheduler")
pipe = StableDiffusionPipeline.from_pretrained(model_id, scheduler=scheduler, torch_dtype=torch.float16)
pipe = pipe.to("cuda")
prompt = "masterpiece, anime, close up, white short hair, red eyes, 1girl, solo, red roses"
negative_prompt="lowres , kanji, monochrome, ((bad anatomy)), ((bad hands)), text, missing finger, extra digits, fewer digits, blurry, ((mutated hands and fingers)), (poorly drawn face), ((mutation)), ((deformed face)), (ugly), ((bad proportions)), ((extra limbs)), extra face, (double head), (extra head), ((extra feet)), monster, logo, cropped, jpeg, humpbacked, long body, long neck, ((jpeg artifacts)), ((censored)), ((bad aesthetic))"
images = pipe(prompt,negative_prompt=negative_prompt, num_inference_steps=30, height=1024, width=768).images
images[0].save("girl.png")
高級用法
- 加速技巧:使用 xformers 可加快生成速度。
- 顯存優化:若GPU顯存不足,可使用
pipe.enable_attention_slicing()
進行優化。
想定使用場景
- 自我表達:通過本AI展現個人特色。
- 圖像生成AI報道:無論是公共廣播還是營利性企業均可使用,因為我們認為了解圖像合成AI信息的“知情權”不會對創作行業造成負面影響,同時也尊重新聞自由。
- 研究開發
- 在Discord上使用模型進行提示工程、微調(如DreamBooth等)以及與其他模型合併。
- 使用FID等指標評估本模型性能。
- 通過校驗和或哈希函數驗證本模型與Stable Diffusion等其他模型的獨立性。
- 教育領域
- 用於美術院校學生或專業學校學生的畢業作品。
- 作為大學生畢業論文或課題作業的素材。
- 供教師向學生介紹圖像生成AI的現狀。
- 博客文章:若生成圖像並非文章主要目的,即使是付費文章也可使用。這是因為我們認為不會干擾插畫師的工作。
- Hugging Face社區:可使用日語或英語進行提問。
禁止使用場景
- 數字贗品:請勿公開數字贗品(Digital Forgery),以免違反著作權法。
- 未經授權的圖像轉換:請勿未經授權對他人作品進行Image - to - Image轉換,避免違反著作權法。
- 傳播淫穢物品:請勿傳播淫穢物品,以免違反刑法第175條。
- 虛假信息傳播:請勿傳播不實信息,以免觸犯威力業務妨害罪。
🔧 技術細節
模型詳情
屬性 |
詳情 |
模型類型 |
基於擴散模型的文本到圖像生成模型 |
語言 |
日語 |
許可證 |
[CreativeML Open RAIL++ - M - NC License](MODEL - LICENSE),[Fair AI Public License 1.0 - SD](https://freedevproject.org/faipl - 1.0 - sd/) |
模型說明 |
該模型可根據提示生成合適的圖像,算法採用 Latent Diffusion Model 和 OpenCLIP - ViT/H |
參考文獻 |
@InProceedings{Rombach_2022_CVPR, author = {Rombach, Robin and Blattmann, Andreas and Lorenz, Dominik and Esser, Patrick and Ommer, Bj"orn}, title = {High - Resolution Image Synthesis With Latent Diffusion Models}, booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)}, month = {June}, year = {2022}, pages = {10684 - 10695} } |
模型的侷限性和偏差
- 模型侷限性:擴散模型和大型語言模型仍有許多未知之處,其侷限性尚未明確。
- 偏差:擴散模型和大型語言模型仍有許多未知之處,偏差情況尚未明確。
訓練情況
- 訓練數據:符合國內法律的數據和模型。
- 訓練過程:硬件為A6000x2。
評估結果
目前正在尋求第三方評估。
環境影響
- 硬件類型:A6000x2
- 使用時間(單位:小時):1000
- 訓練地點:日本
*本模型卡片基於 Stable Diffusion v2 編寫。