A

Animatediff Motion Adapter V1 5 3

由guoyww開發
AnimateDiff是一種能夠利用現有Stable Diffusion文生圖模型創建視頻的技術,通過插入運動模塊層實現圖像幀間的連貫運動。
下載量 800
發布時間 : 12/18/2023

模型概述

該技術通過向凍結的文生圖模型中插入運動模塊層,並在視頻片段上進行訓練以提取運動先驗知識,使圖像幀之間產生連貫的運動。支持將運動模塊應用於現有Stable Diffusion模型。

模型特點

運動模塊適配
通過MotionAdapter和UNetMotionModel為現有Stable Diffusion模型添加運動能力
視頻連貫性
在ResNet和注意力塊後插入運動模塊,確保圖像幀間運動的連貫性
模型兼容性
可與多種Stable Diffusion文生圖模型結合使用,如示例中的Realistic Vision V5.1

模型能力

文本到視頻生成
圖像動畫化
視頻風格遷移

使用案例

創意內容生成
日落動畫生成
根據文本描述生成連貫的日落場景動畫
示例展示了16幀的日落場景動畫,包含漁船、海浪、海鷗等元素
數字藝術創作
藝術風格動畫
將藝術風格圖像轉化為動畫
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase