🚀 CogVideoX LoRA - Zlikwid/ZlikwidCogVideoXLoRa
CogVideoX LoRA是針對THUDM/CogVideoX - 2b的低秩自適應(LoRA)權重,可用於文本到視頻的生成任務,藉助diffusers庫能方便地使用和訓練。
🚀 快速開始
你可以按照以下步驟快速使用CogVideoX LoRA:
- 從指定位置下載模型的
.safetensors LoRA
文件。
- 使用
diffusers
庫加載模型和LoRA權重。
- 進行視頻生成。
from diffusers import CogVideoXPipeline
import torch
pipe = CogVideoXPipeline.from_pretrained("THUDM/CogVideoX-5b", torch_dtype=torch.bfloat16).to("cuda")
pipe.load_lora_weights("Zlikwid/ZlikwidCogVideoXLoRa", weight_name="pytorch_lora_weights.safetensors", adapter_name=["cogvideox-lora"])
pipe.set_adapters(["cogvideox-lora"], [32 / 64])
video = pipe("None", guidance_scale=6, use_dynamic_cfg=True).frames[0]
更多詳細信息,包括權重設置、合併和融合LoRA等內容,請查看 diffusers中加載LoRA的文檔。
✨ 主要特性
📦 安裝指南
在Files & versions標籤中下載 *.safetensors LoRA。
💻 使用示例
基礎用法
from diffusers import CogVideoXPipeline
import torch
pipe = CogVideoXPipeline.from_pretrained("THUDM/CogVideoX-5b", torch_dtype=torch.bfloat16).to("cuda")
pipe.load_lora_weights("Zlikwid/ZlikwidCogVideoXLoRa", weight_name="pytorch_lora_weights.safetensors", adapter_name=["cogvideox-lora"])
pipe.set_adapters(["cogvideox-lora"], [32 / 64])
video = pipe("None", guidance_scale=6, use_dynamic_cfg=True).frames[0]
高級用法
目前文檔未提供高級用法示例,你可以參考 diffusers中加載LoRA的文檔 進行更復雜的操作。
📚 詳細文檔
模型描述
這些是針對THUDM/CogVideoX - 2b的Zlikwid/ZlikwidCogVideoXLoRa LoRA權重,使用 CogVideoX Diffusers訓練器 進行訓練,文本編碼器未啟用LoRA。
預期用途和限制
如何使用
限制和偏差
[TODO: provide examples of latent issues and potential remediations]
訓練細節
[TODO: describe the data used to train the model]
📄 許可證
請遵守 此處 和 此處 描述的許可條款。
📋 信息表格
屬性 |
詳情 |
基礎模型 |
THUDM/CogVideoX - 2b |
庫名稱 |
diffusers |
許可證 |
other |
標籤 |
text - to - video、diffusers - training、diffusers、lora、cogvideox、cogvideox - diffusers、template:sd - lora |