A

Animatediff Sparsectrl Scribble

由guoyww開發
AnimateDiff是一種將靜態Stable Diffusion模型轉換為視頻生成模型的方法,通過插入運動模塊實現連貫的視頻生成。
下載量 247
發布時間 : 7/18/2024

模型概述

該模型通過在凍結的文本生成圖像模型中插入運動模塊層並在視頻片段上進行訓練,實現了從靜態圖像生成到視頻生成的轉換。

模型特點

運動模塊插入
在Stable Diffusion UNet的ResNet和Attention塊後插入運動模塊,實現幀間連貫運動
稀疏控制網絡
支持SparseControlNet,通過稀疏控制幀實現更精確的視頻生成控制
兼容現有模型
可與現有Stable Diffusion文本生成圖像模型結合使用,無需完全重新訓練

模型能力

文本生成視頻
基於塗鴉控制的視頻生成
幀間運動連貫性保持

使用案例

創意內容生成
賽博朋克城市動畫
根據文本提示和塗鴉控制生成連貫的賽博朋克風格城市動畫
生成高質量、幀間連貫的動畫效果
概念可視化
產品概念動畫
通過簡單塗鴉和文本描述快速生成產品概念動畫
快速可視化設計概念
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase