A

Animatediff Motion Adapter V1 5 2

由guoyww開發
AnimateDiff是一種方法,允許利用現有的Stable Diffusion文本生成圖像模型來創建視頻。
下載量 1,153
發布時間 : 11/1/2023

模型概述

通過在凍結的文本生成圖像模型中插入運動模塊層,並在視頻片段上進行訓練以提取運動先驗,實現在圖像幀之間引入連貫的運動。

模型特點

運動模塊插入
在Stable Diffusion UNet中的ResNet和注意力塊之後插入運動模塊層,實現幀間連貫運動
適配現有模型
通過MotionAdapter和UNetMotionModel為現有Stable Diffusion模型提供便捷的運動模塊支持
高質量視頻生成
利用微調的Stable Diffusion模型生成高質量、連貫的視頻內容

模型能力

文本生成視頻
圖像序列生成
運動連貫性控制

使用案例

創意內容生成
自然場景動畫
生成如日落、海浪等自然場景的連貫動畫
示例展示了日落場景的流暢動畫效果
藝術創作
為藝術家提供從文本描述生成動畫的工具
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase