A

Animatediff Motion Adapter V1 5 3

guoywwによって開発
AnimateDiffは既存のStable Diffusionテキストから画像生成モデルを利用して動画を作成する技術で、モーションモジュール層を挿入することで画像フレーム間の連続的な動きを実現します。
ダウンロード数 800
リリース時間 : 12/18/2023

モデル概要

この技術は凍結されたテキストから画像生成モデルにモーションモジュール層を挿入し、ビデオクリップでトレーニングして動きの事前知識を抽出することで、画像フレーム間に連続的な動きを生み出します。既存のStable Diffusionモデルにモーションモジュールを適用することが可能です。

モデル特徴

モーションモジュール適応
MotionAdapterとUNetMotionModelを使用して既存のStable Diffusionモデルに動きの機能を追加
動画の連続性
ResNetとアテンションブロックの後にモーションモジュールを挿入し、画像フレーム間の動きの連続性を確保
モデル互換性
Realistic Vision V5.1などの様々なStable Diffusionテキストから画像生成モデルと組み合わせて使用可能

モデル能力

テキストから動画生成
画像アニメーション化
動画スタイル転送

使用事例

クリエイティブコンテンツ生成
夕日のアニメーション生成
テキスト記述に基づいて連続的な夕日シーンのアニメーションを生成
16フレームの夕日シーンアニメーションの例で、漁船、波、カモメなどの要素を含む
デジタルアート創作
アートスタイルアニメーション
アートスタイルの画像をアニメーションに変換
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase