A

Animatediff Sparsectrl Scribble

Developed by guoyww
AnimateDiff是一种将静态Stable Diffusion模型转换为视频生成模型的方法,通过插入运动模块实现连贯的视频生成。
Downloads 247
Release Time : 7/18/2024

Model Overview

该模型通过在冻结的文本生成图像模型中插入运动模块层并在视频片段上进行训练,实现了从静态图像生成到视频生成的转换。

Model Features

运动模块插入
在Stable Diffusion UNet的ResNet和Attention块后插入运动模块,实现帧间连贯运动
稀疏控制网络
支持SparseControlNet,通过稀疏控制帧实现更精确的视频生成控制
兼容现有模型
可与现有Stable Diffusion文本生成图像模型结合使用,无需完全重新训练

Model Capabilities

文本生成视频
基于涂鸦控制的视频生成
帧间运动连贯性保持

Use Cases

创意内容生成
赛博朋克城市动画
根据文本提示和涂鸦控制生成连贯的赛博朋克风格城市动画
生成高质量、帧间连贯的动画效果
概念可视化
产品概念动画
通过简单涂鸦和文本描述快速生成产品概念动画
快速可视化设计概念
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase