🚀 Tune-A-Video - Modern Disney
このモデルは、テキストから動画を生成するためのTune-A-Videoモデルで、Modern Disneyスタイルを持ち、Diffusersライブラリと互換性があります。
🚀 クイックスタート
このモデルはDiffusers互換のチェックポイントです。DiffusionPipelineと共に使用すると、TuneAVideoPipelineのインスタンスを返します。
df-cptは、Tune-A-Video-library/mo-di-bear-guitarのDiffusers互換版であることを示すために使用されます。
✨ 主な機能
- テキストから動画を生成することができます。
- Modern Disneyスタイルの動画を生成することができます。
📦 インストール
このモデルは、Diffusersライブラリを使用しています。以下のコマンドでDiffusersをインストールできます。
pip install diffusers
💻 使用例
基本的な使用法
既存のText2Imageチェックポイントを使用してロードする場合:
import torch
from diffusers import TuneAVideoPipeline, DDIMScheduler, UNet3DConditionModel
from diffusers.utils import export_to_video
from PIL import Image
pretrained_model_path = "nitrosocke/mo-di-diffusion"
unet = UNet3DConditionModel.from_pretrained(
"Tune-A-Video-library/df-cpt-mo-di-bear-guitar", subfolder="unet", torch_dtype=torch.float16
).to("cuda")
pipe = TuneAVideoPipeline.from_pretrained(pretrained_model_path, unet=unet, torch_dtype=torch.float16).to("cuda")
prompt = "A princess playing a guitar, modern disney style"
generator = torch.Generator(device="cuda").manual_seed(42)
video_frames = pipe(prompt, video_length=3, generator=generator, num_inference_steps=50, output_type="np").frames
pil_frames = [Image.fromarray(frame) for frame in video_frames]
duration = len(pil_frames) / 8
pil_frames[0].save(
"animation.gif",
save_all=True,
append_images=pil_frames[1:],
duration=duration * 1000,
loop=0,
)
video_path = export_to_video(video_frames)
高度な使用法
保存されたTune-A-Videoチェックポイントをロードする場合:
import torch
from diffusers import DiffusionPipeline, DDIMScheduler
from diffusers.utils import export_to_video
from PIL import Image
pipe = DiffusionPipeline.from_pretrained(
"Tune-A-Video-library/df-cpt-mo-di-bear-guitar", torch_dtype=torch.float16
).to("cuda")
prompt = "A princess playing a guitar, modern disney style"
generator = torch.Generator(device="cuda").manual_seed(42)
video_frames = pipe(prompt, video_length=3, generator=generator, num_inference_steps=50, output_type="np").frames
pil_frames = [Image.fromarray(frame) for frame in video_frames]
duration = len(pil_frames) / 8
pil_frames[0].save(
"animation.gif",
save_all=True,
append_images=pil_frames[1:],
duration=duration * 1000,
loop=0,
)
video_path = export_to_video(video_frames)
📚 ドキュメント
サンプル
テストプロンプト: "A princess playing a guitar, modern disney style"
関連論文
- Tune-A-Video: One-Shot Tuning of Image Diffusion Models for Text-to-Video Generation
- Stable Diffusion: High-Resolution Image Synthesis with Latent Diffusion Models
📄 ライセンス
このモデルは、CreativeML OpenRAIL-Mライセンスの下で提供されています。