A

Animatediff Sparsectrl Scribble

guoywwによって開発
AnimateDiffは、静的Stable Diffusionモデルを動画生成モデルに変換する手法で、モーションモジュールを挿入することで連続的な動画生成を実現します。
ダウンロード数 247
リリース時間 : 7/18/2024

モデル概要

このモデルは、固定されたテキストから画像生成モデルにモーションモジュール層を挿入し、動画クリップで訓練することで、静的画像生成から動画生成への変換を実現しています。

モデル特徴

モーションモジュール挿入
Stable Diffusion UNetのResNetとAttentionブロック後にモーションモジュールを挿入し、フレーム間の連続的な動きを実現
スパース制御ネットワーク
SparseControlNetをサポートし、スパース制御フレームを通じてより精密な動画生成制御を可能にする
既存モデルとの互換性
既存のStable Diffusionテキストから画像生成モデルと組み合わせて使用可能で、完全な再トレーニングは不要

モデル能力

テキストから動画生成
落書き制御に基づく動画生成
フレーム間の動きの一貫性保持

使用事例

クリエイティブコンテンツ生成
サイバーパンク都市アニメーション
テキストプロンプトと落書き制御に基づいて連続的なサイバーパンクスタイルの都市アニメーションを生成
高品質でフレーム間が連続的なアニメーション効果を生成
コンセプトビジュアライゼーション
製品コンセプトアニメーション
簡単な落書きとテキスト記述で迅速に製品コンセプトアニメーションを生成
デザインコンセプトを迅速に可視化
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase