LTX Video 0.9.7 Dev
模型简介
基于DiT架构的视频生成模型,支持文本转视频和图像+文本转视频两种模式,可生成高分辨率、内容多样化的视频
模型特点
实时高清视频生成
能以30帧/秒的速度生成1216×704分辨率的高质量视频
多模态输入支持
同时支持纯文本输入和图像+文本结合的输入方式
多版本适配不同需求
提供从最高质量到轻量化的多个版本,平衡速度与质量
多样化内容生成
在多样化视频数据集上训练,能生成内容真实多样的视频
模型能力
文本到视频生成
图像到视频生成
高分辨率视频合成
实时视频渲染
使用案例
影视制作
电影场景预演
快速生成电影场景概念视频
示例展示多个电影风格场景
角色表情动画
根据文本描述生成角色表情变化
示例包含多种人物表情特写
广告创意
产品展示视频
根据产品图片生成动态展示
游戏开发
环境动画生成
生成游戏场景动态背景
示例包含山脉、河流等自然环境
🚀 LTX-Video 0.9.7模型卡片
LTX-Video是首个基于DiT的视频生成模型,能够实时生成高质量视频。它可以以1216×704的分辨率、30 FPS的帧率快速生成视频,速度之快甚至超过观看速度。该模型在大规模多样化视频数据集上进行训练,能够生成具有逼真且丰富内容的高分辨率视频。我们为文本到视频以及图像+文本到视频的应用场景都提供了相应模型。

示例展示
![]() 一位留着棕色长发、皮肤白皙的女子对着另一位留着金色长发的女子微笑……一位留着棕色长发、皮肤白皙的女子对着另一位留着金色长发的女子微笑。留着棕色头发的女子穿着黑色夹克,右脸颊上有一颗几乎难以察觉的小痣。拍摄角度为特写,聚焦在留着棕色头发女子的脸上。光线温暖自然,可能来自夕阳,给场景披上了一层柔和的光芒。该场景看起来像是真实生活的片段。 |
![]() 一名女子在夜晚从停在城市街道上的白色吉普车前走过……一名女子在夜晚从停在城市街道上的白色吉普车前走过,然后走上楼梯并敲门。这名女子穿着深色夹克和牛仔裤,背对着镜头从停在街道左侧的吉普车前走过;她步伐稳健,手臂在身体两侧微微摆动;街道灯光昏暗,路灯在潮湿的路面上投下一片片光亮;一名穿着深色夹克和牛仔裤的男子从相反方向走过吉普车;镜头从后面跟随女子走上通往一座绿色门建筑的楼梯;她到达楼梯顶部后向左转,继续朝建筑走去;她走到门前,用右手敲门;镜头保持静止,聚焦在门口;该场景是真实生活的片段。 |
![]() 一位梳着发髻、穿着黑色亮片连衣裙和珍珠耳环的金发女子……一位梳着发髻、穿着黑色亮片连衣裙和珍珠耳环的金发女子面带悲伤地低头。镜头保持静止,聚焦在女子的脸上。光线昏暗,在她脸上投下柔和的阴影。该场景看起来像是电影或电视剧中的片段。 |
![]() 镜头扫过一片被雪覆盖的山脉……镜头扫过一片被雪覆盖的山脉,展现出一片广阔的雪山和山谷。山脉被厚厚的积雪覆盖,有些地方几乎呈白色,而有些地方则略带灰色调。山峰参差不齐,有的高耸入云,有的则较为圆润。山谷又深又窄,陡峭的山坡也被雪覆盖。前景中的树木大多光秃秃的,只有少数树枝上还留着几片叶子。天空阴云密布,厚厚的云层遮住了太阳。整体给人一种宁静祥和的感觉,被雪覆盖的山脉见证了大自然的力量与美丽。 |
![]() 一位皮肤白皙、穿着蓝色夹克和黑色带面纱帽子的女子……一位皮肤白皙、穿着蓝色夹克和黑色带面纱帽子的女子边说话边向下看向右侧,然后又抬起头。她留着棕色头发,梳成发髻,眉毛呈浅棕色,夹克里面穿着白色领口衬衫;她说话时镜头一直对着她的脸;背景有些模糊,但能看到树木和穿着古装的人;该场景是真实生活的片段。 |
![]() 一名男子在光线昏暗的房间里对着老式电话交谈……一名男子在光线昏暗的房间里对着老式电话交谈,然后挂断电话,面带悲伤地低头。他用右手将黑色旋转电话贴在右耳旁,左手拿着一个装有琥珀色液体的岩石杯。他穿着棕色西装外套,里面是白色衬衫,左手无名指上戴着一枚金戒指。他的短发梳理得很整齐,皮肤白皙,眼睛周围有明显的皱纹。镜头保持静止,聚焦在他的脸和上半身。房间很暗,只有左侧屏幕外的一个暖光源照亮,在他身后的墙上投下阴影。该场景看起来像是电影中的片段。 |
![]() 一名狱警打开牢房的门……一名狱警打开牢房的门,里面有一名年轻男子和一名女子坐在桌旁。狱警穿着深蓝色制服,左胸有徽章,用右手拿着钥匙打开牢房门并拉开;他留着棕色短发,皮肤白皙,表情平淡。年轻男子穿着黑白条纹衬衫,坐在铺着白色桌布的桌旁,面向女子;他留着棕色短发,皮肤白皙,表情平淡。女子穿着深蓝色衬衫,坐在年轻男子对面,脸转向他;她留着金色短发,皮肤白皙。镜头保持静止,从中间距离拍摄,位置略在狱警右侧。房间光线昏暗,只有一盏灯具照亮桌子和两个人。墙壁由巨大的灰色混凝土块砌成,背景中可以看到一扇金属门。该场景是真实生活的片段。 |
![]() 一位脸上有血、穿着白色背心的女子……一位脸上有血、穿着白色背心的女子边说话边向下看向右侧,然后又抬起头。她的深色头发向后梳,皮肤白皙,脸和胸部都沾满了血。拍摄角度为特写,聚焦在女子的脸和上半身。光线昏暗,呈蓝色调,营造出一种忧郁而紧张的氛围。该场景看起来像是电影或电视剧中的片段。 |
![]() 一位头发花白、留着胡须、穿着灰色衬衫的男子……一位头发花白、留着胡须、穿着灰色衬衫的男子向下看向右侧,然后转头向左。拍摄角度为特写,聚焦在男子的脸上。光线昏暗,带有绿色色调。该场景看起来是真实生活的片段。 |
![]() 一条清澈的蓝绿色河流穿过岩石峡谷……一条清澈的蓝绿色河流穿过岩石峡谷,从一个小瀑布上倾泻而下,在底部形成一个水潭。河流是场景的主要焦点,清澈的河水倒映着周围的树木和岩石。峡谷壁陡峭多石,上面生长着一些植被。树木大多是松树,绿色的针叶与棕色和灰色的岩石形成鲜明对比。整个场景给人一种宁静祥和的感觉。 |
![]() 一名穿着西装的男子走进房间,与坐在沙发上的两名女子交谈……一名穿着西装的男子走进房间,与坐在沙发上的两名女子交谈。男子穿着深色西装,系着金色领带,从左侧进入房间,朝画面中心走去。他留着灰色短发,皮肤白皙,表情严肃。他走近沙发时,右手放在椅子背上。背景中,两名女子坐在浅色沙发上。左边的女子穿着浅蓝色毛衣,留着金色短发。右边的女子穿着白色毛衣,也留着金色短发。镜头保持静止,男子进入房间时聚焦在他身上。房间光线明亮,温暖的色调从墙壁和家具上反射出来。该场景看起来像是电影或电视剧中的片段。 |
![]() 海浪拍打着岸边参差不齐的岩石……海浪拍打着岸边参差不齐的岩石,激起高高的浪花。岩石呈深灰色,边缘锋利,有很深的裂缝。海水呈清澈的蓝绿色,海浪拍打岩石的地方泛起白色泡沫。天空呈浅灰色,地平线上点缀着几朵白云。 |
![]() 镜头扫过一座高楼林立的城市景观……镜头扫过一座高楼林立的城市景观,中间有一座圆形建筑。镜头从左向右移动,展示了建筑物的顶部和中间的圆形建筑。建筑物有各种灰色和白色调,圆形建筑的屋顶是绿色的。拍摄角度较高,俯瞰着城市。光线明亮,太阳从左上方照射,建筑物投下阴影。该场景是计算机生成的图像。 |
![]() 一名男子走向窗户,向外张望,然后转身……一名男子走向窗户,向外张望,然后转身。他留着黑色短发,皮肤黝黑,穿着棕色外套,里面围着红灰色围巾。他从左向右走向窗户,目光盯着窗外的某个东西。镜头从后面以中等距离跟随他。房间光线明亮,白色的墙壁和一扇被白色窗帘遮住的大窗户。他走近窗户时,头微微向左转,然后又向右转。然后他整个身体向右转,面向窗户。他站在窗户前时,镜头保持静止。该场景是真实生活的片段。 |
![]() 两名穿着深蓝色制服和配套帽子的警察……两名穿着深蓝色制服和配套帽子的警察从画面左侧的门进入一个光线昏暗的房间。第一名警察留着棕色短发,有小胡子,先走进来,后面跟着他的搭档,搭档剃着光头,留着山羊胡。两名警察表情严肃,步伐稳健地向房间深处走去。镜头保持静止,他们进入时从略低的角度拍摄。房间的砖墙裸露,天花板是波纹金属,背景中可以看到一扇带栅栏的窗户。光线较暗,在警察脸上投下阴影,凸显出严峻的氛围。该场景看起来像是电影或电视剧中的片段。 |
![]() 一位留着棕色短发、穿着栗色无袖上衣的女子……一位留着棕色短发、穿着栗色无袖上衣和银色项链的女子边说话边穿过房间,然后一位留着粉色头发、穿着白色衬衫的女子出现在门口并大喊。第一位女子从左向右走,表情严肃;她皮肤白皙,眉毛微微皱起。第二位女子站在门口,张着嘴大喊;她皮肤白皙,眼睛睁得很大。房间光线昏暗,背景中可以看到一个书架。镜头跟随第一位女子走动,然后切换到第二位女子脸的特写。该场景是真实生活的片段。 |
✨ 主要特性
- 首个基于DiT的视频生成模型,可实时生成高质量视频。
- 能够以1216×704分辨率、30 FPS帧率快速生成视频。
- 在大规模多样化视频数据集上训练,生成的视频内容逼真且丰富。
- 提供文本到视频以及图像+文本到视频两种应用场景的模型。
📦 安装指南
代码库在Python 3.10.5、CUDA版本12.2环境下进行了测试,支持PyTorch >= 2.1.2。
git clone https://github.com/Lightricks/LTX-Video.git
cd LTX-Video
# 创建虚拟环境
python -m venv env
source env/bin/activate
python -m pip install -e .\[inference-script\]
💻 使用示例
直接使用
你可以在许可证允许的范围内使用该模型:
- 2B版本0.9:许可证
- 2B版本0.9.1:许可证
- 2B版本0.9.5:许可证
- 2B版本0.9.6-dev:许可证
- 2B版本0.9.6-distilled:许可证
- 13B版本0.9.7-dev:许可证
- 13B版本0.9.7-dev-fp8:许可证
- 13B版本0.9.7-distilled:许可证
- 13B版本0.9.7-distilled-fp8:许可证
- 13B版本0.9.7-distilled-lora128:许可证
- 时间上采样器版本0.9.7:许可证
- 空间上采样器版本0.9.7:许可证
通用提示
- 模型适用于分辨率能被32整除、帧数能被8 + 1(例如257)整除的情况。如果分辨率或帧数不能被32或8 + 1整除,输入将被填充为 -1,然后裁剪到所需的分辨率和帧数。
- 模型在分辨率低于720 x 1280、帧数少于257时效果最佳。
- 提示词应为英文,越详细越好。例如:
The turquoise waves crash against the dark, jagged rocks of the shore, sending white foam spraying into the air. The scene is dominated by the stark contrast between the bright blue water and the dark, almost black rocks. The water is a clear, turquoise color, and the waves are capped with white foam. The rocks are dark and jagged, and they are covered in patches of green moss. The shore is lined with lush green vegetation, including trees and bushes. In the background, there are rolling hills covered in dense forest. The sky is cloudy, and the light is dim.
在线演示
可通过以下链接立即访问该模型:
ComfyUI
若要在ComfyUI中使用我们的模型,请遵循专用ComfyUI仓库中的说明。
本地运行
推理
若要使用我们的模型,请遵循推理代码:
文本到视频生成
python inference.py --prompt "PROMPT" --height HEIGHT --width WIDTH --num_frames NUM_FRAMES --seed SEED --pipeline_config configs/ltxv-13b-0.9.7-dev.yaml
图像到视频生成
python inference.py --prompt "PROMPT" --input_image_path IMAGE_PATH --height HEIGHT --width WIDTH --num_frames NUM_FRAMES --seed SEED --pipeline_config configs/ltxv-13b-0.9.7-dev.yaml
Diffusers
LTX Video与Diffusers Python库兼容,支持文本到视频和图像到视频的生成。在尝试以下示例之前,请确保安装了diffusers
:
pip install -U git+https://github.com/huggingface/diffusers
文本到视频
import torch
from diffusers import LTXConditionPipeline, LTXLatentUpsamplePipeline
from diffusers.pipelines.ltx.pipeline_ltx_condition import LTXVideoCondition
from diffusers.utils import export_to_video
pipe = LTXConditionPipeline.from_pretrained("Lightricks/LTX-Video-0.9.7-dev", torch_dtype=torch.bfloat16)
pipe_upsample = LTXLatentUpsamplePipeline.from_pretrained("Lightricks/ltxv-spatial-upscaler-0.9.7", vae=pipe.vae, torch_dtype=torch.bfloat16)
pipe.to("cuda")
pipe_upsample.to("cuda")
pipe.vae.enable_tiling()
prompt = "The video depicts a winding mountain road covered in snow, with a single vehicle traveling along it. The road is flanked by steep, rocky cliffs and sparse vegetation. The landscape is characterized by rugged terrain and a river visible in the distance. The scene captures the solitude and beauty of a winter drive through a mountainous region."
negative_prompt = "worst quality, inconsistent motion, blurry, jittery, distorted"
expected_height, expected_width = 704, 512
downscale_factor = 2 / 3
num_frames = 121
# 第一部分:以较小分辨率生成视频
downscaled_height, downscaled_width = int(expected_height * downscale_factor), int(expected_width * downscale_factor)
latents = pipe(
conditions=None,
prompt=prompt,
negative_prompt=negative_prompt,
width=downscaled_width,
height=downscaled_height,
num_frames=num_frames,
num_inference_steps=30,
generator=torch.Generator().manual_seed(0),
output_type="latent",
).frames
# 第二部分:使用潜在上采样器以较少推理步骤对生成的视频进行上采样
# 可用的潜在上采样器将高度/宽度上采样2倍
upscaled_height, upscaled_width = downscaled_height * 2, downscaled_width * 2
upscaled_latents = pipe_upsample(
latents=latents,
output_type="latent"
).frames
# 第三部分:以较少步骤对经过上采样的视频进行去噪以改善纹理(可选,但推荐)
video = pipe(
prompt=prompt,
negative_prompt=negative_prompt,
width=upscaled_width,
height=upscaled_height,
num_frames=num_frames,
denoise_strength=0.4, # 实际上,10步中的4步推理
num_inference_steps=10,
latents=upscaled_latents,
decode_timestep=0.05,
image_cond_noise_scale=0.025,
generator=torch.Generator().manual_seed(0),
output_type="pil",
).frames[0]
# 第四部分:将视频下采样到预期分辨率
video = [frame.resize((expected_width, expected_height)) for frame in video]
export_to_video(video, "output.mp4", fps=24)
图像到视频
import torch
from diffusers import LTXConditionPipeline, LTXLatentUpsamplePipeline
from diffusers.pipelines.ltx.pipeline_ltx_condition import LTXVideoCondition
from diffusers.utils import export_to_video, load_image
pipe = LTXConditionPipeline.from_pretrained("Lightricks/LTX-Video-0.9.7-dev", torch_dtype=torch.bfloat16)
pipe_upsample = LTXLatentUpsamplePipeline.from_pretrained("Lightricks/ltxv-spatial-upscaler-0.9.7", vae=pipe.vae, torch_dtype=torch.bfloat16)
pipe.to("cuda")
pipe_upsample.to("cuda")
pipe.vae.enable_tiling()
image = load_image("https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/diffusers/penguin.png")
video = [image]
condition1 = LTXVideoCondition(video=video, frame_index=0)
prompt = "The video depicts a winding mountain road covered in snow, with a single vehicle traveling along it. The road is flanked by steep, rocky cliffs and sparse vegetation. The landscape is characterized by rugged terrain and a river visible in the distance. The scene captures the solitude and beauty of a winter drive through a mountainous region."
negative_prompt = "worst quality, inconsistent motion, blurry, jittery, distorted"
expected_height, expected_width = 832, 480
downscale_factor = 2 / 3
num_frames = 96
# 第一部分:以较小分辨率生成视频
downscaled_height, downscaled_width = int(expected_height * downscale_factor), int(expected_width * downscale_factor)
downscaled_height, downscaled_width = round_to_nearest_resolution_acceptable_by_vae(downscaled_height, downscaled_width)
latents = pipe(
conditions=[condition1],
prompt=prompt,
negative_prompt=negative_prompt,
width=downscaled_width,
height=downscaled_height,
num_frames=num_frames,
num_inference_steps=30,
generator=torch.Generator().manual_seed(0),
output_type="latent",
).frames
# 第二部分:使用潜在上采样器以较少推理步骤对生成的视频进行上采样
# 可用的潜在上采样器将高度/宽度上采样2倍
upscaled_height, upscaled_width = downscaled_height * 2, downscaled_width * 2
upscaled_latents = pipe_upsample(
latents=latents,
output_type="latent"
).frames
# 第三部分:以较少步骤对经过上采样的视频进行去噪以改善纹理(可选,但推荐)
video = pipe(
conditions=[condition1],
prompt=prompt,
negative_prompt=negative_prompt,
width=upscaled_width,
height=upscaled_height,
num_frames=num_frames,
denoise_strength=0.4, # 实际上,10步中的4步推理
num_inference_steps=10,
latents=upscaled_latents,
decode_timestep=0.05,
image_cond_noise_scale=0.025,
generator=torch.Generator().manual_seed(0),
output_type="pil",
).frames[0]
# 第四部分:将视频下采样到预期分辨率
video = [frame.resize((expected_width, expected_height)) for frame in video]
export_to_video(video, "output.mp4", fps=24)
视频到视频
import torch
from diffusers import LTXConditionPipeline, LTXLatentUpsamplePipeline
from diffusers.pipelines.ltx.pipeline_ltx_condition import LTXVideoCondition
from diffusers.utils import export_to_video, load_video
pipe = LTXConditionPipeline.from_pretrained("Lightricks/LTX-Video-0.9.7-dev", torch_dtype=torch.bfloat16)
pipe_upsample = LTXLatentUpsamplePipeline.from_pretrained("Lightricks/ltxv-spatial-upscaler-0.9.7", vae=pipe.vae, torch_dtype=torch.bfloat16)
pipe.to("cuda")
pipe_upsample.to("cuda")
pipe.vae.enable_tiling()
def round_to_nearest_resolution_acceptable_by_vae(height, width):
height = height - (height % pipe.vae_temporal_compression_ratio)
width = width - (width % pipe.vae_temporal_compression_ratio)
return height, width
video = load_video(
"https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/diffusers/cosmos/cosmos-video2world-input-vid.mp4"
)[:21] # 仅使用前21帧作为条件
condition1 = LTXVideoCondition(video=video, frame_index=0)
prompt = "The video depicts a winding mountain road covered in snow, with a single vehicle traveling along it. The road is flanked by steep, rocky cliffs and sparse vegetation. The landscape is characterized by rugged terrain and a river visible in the distance. The scene captures the solitude and beauty of a winter drive through a mountainous region."
negative_prompt = "worst quality, inconsistent motion, blurry, jittery, distorted"
expected_height, expected_width = 768, 1152
downscale_factor = 2 / 3
num_frames = 161
# 第一部分:以较小分辨率生成视频
downscaled_height, downscaled_width = int(expected_height * downscale_factor), int(expected_width * downscale_factor)
downscaled_height, downscaled_width = round_to_nearest_resolution_acceptable_by_vae(downscaled_height, downscaled_width)
latents = pipe(
conditions=[condition1],
prompt=prompt,
negative_prompt=negative_prompt,
width=downscaled_width,
height=downscaled_height,
num_frames=num_frames,
num_inference_steps=30,
generator=torch.Generator().manual_seed(0),
output_type="latent",
).frames
# 第二部分:使用潜在上采样器以较少推理步骤对生成的视频进行上采样
# 可用的潜在上采样器将高度/宽度上采样2倍
upscaled_height, upscaled_width = downscaled_height * 2, downscaled_width * 2
upscaled_latents = pipe_upsample(
latents=latents,
output_type="latent"
).frames
# 第三部分:以较少步骤对经过上采样的视频进行去噪以改善纹理(可选,但推荐)
video = pipe(
conditions=[condition1],
prompt=prompt,
negative_prompt=negative_prompt,
width=upscaled_width,
height=upscaled_height,
num_frames=num_frames,
denoise_strength=0.4, # 实际上,10步中的4步推理
num_inference_steps=10,
latents=upscaled_latents,
decode_timestep=0.05,
image_cond_noise_scale=0.025,
generator=torch.Generator().manual_seed(0),
output_type="pil",
).frames[0]
# 第四部分:将视频下采样到预期分辨率
video = [frame.resize((expected_width, expected_height)) for frame in video]
export_to_video(video, "output.mp4", fps=24)
若要了解更多信息,请查看官方文档。Diffusers还支持使用from_single_file()
方法直接从原始LTX检查点加载模型。查看此部分以了解更多。
📚 详细文档
模型详情
属性 | 详情 |
---|---|
开发者 | Lightricks |
模型类型 | 基于扩散的文本到视频和图像到视频生成模型 |
语言 | 英语 |
模型列表
名称 | 说明 | 推理配置文件 | ComfyUI工作流(推荐) |
---|---|---|---|
ltxv-13b-0.9.7-dev | 质量最高,需要更多VRAM | ltxv-13b-0.9.7-dev.yaml | ltxv-13b-i2v-base.json |
ltxv-13b-0.9.7-mix | 在相同的多尺度渲染工作流中混合ltxv-13b-dev和ltxv-13b-distilled,以实现速度和质量的平衡 | N/A | ltxv-13b-i2v-mix.json |
ltxv-13b-0.9.7-distilled | 速度更快,VRAM使用更少,与13b相比质量略有下降。适合快速迭代 | ltxv-13b-0.9.7-distilled.yaml | ltxv-13b-dist-i2v-base.json |
ltxv-13b-0.9.7-distilled-lora128 | LoRA,使ltxv-13b-dev表现得像蒸馏模型 | N/A | N/A |
ltxv-13b-0.9.7-fp8 | ltxv-13b的量化版本 | 即将推出 | ltxv-13b-i2v-base-fp8.json |
ltxv-13b-0.9.7-distilled-fp8 | ltxv-13b-distilled的量化版本 | 即将推出 | ltxv-13b-dist-fp8-i2v-base.json |
ltxv-2b-0.9.6 | 质量良好,比ltxv-13b需要更少的VRAM | ltxv-2b-0.9.6-dev.yaml | ltxvideo-i2v.json |
ltxv-2b-0.9.6-distilled | 速度快15倍,支持实时处理,所需步骤更少,无需STG/CFG | ltxv-2b-0.9.6-distilled.yaml | ltxvideo-i2v-distilled.json |
🔧 技术细节
局限性
- 该模型并非用于也无法提供事实性信息。
- 作为统计模型,此检查点可能会放大现有的社会偏见。
- 模型可能无法完美生成与提示词匹配的视频。
- 提示词的遵循程度受提示风格的影响很大。
重要提示
⚠️ 重要提示
该模型不能保证生成的视频与提示词完全匹配,且可能存在放大社会偏见等问题。
💡 使用建议
- 提示词使用英文且尽量详细,以提高生成视频的质量。
- 尽量在分辨率低于720 x 1280、帧数少于257的条件下使用模型。
Timesformer Base Finetuned K400
TimeSformer是基于Kinetics-400数据集预训练的视频分类模型,采用时空注意力机制实现视频理解。
视频处理
Transformers

T
facebook
108.61k
33
Vivit B 16x2 Kinetics400
MIT
ViViT是对视觉变换器(ViT)的扩展,适用于视频处理,特别适合视频分类任务。
视频处理
Transformers

V
google
56.94k
32
Animatediff Motion Lora Zoom In
动态LoRAs能够为动画添加特定类型的运动效果,如缩放、平移、倾斜和旋转。
视频处理
A
guoyww
51.43k
8
Videomae Base
VideoMAE是基于掩码自编码器(MAE)的视频自监督预训练模型,通过预测被掩码视频块的像素值学习视频内部表示。
视频处理
Transformers

V
MCG-NJU
48.66k
45
Dfot
MIT
一种新颖的视频扩散模型,能够根据任意数量的上下文帧生成高质量视频
视频处理
D
kiwhansong
47.19k
6
Videomae Base Finetuned Kinetics
VideoMAE是基于掩码自编码器(MAE)的视频自监督预训练模型,在Kinetics-400数据集上微调后可用于视频分类任务。
视频处理
Transformers

V
MCG-NJU
44.91k
34
Mochi 1 Preview
Apache-2.0
由Genmo开发的高保真视频生成模型,具有卓越的运动表现力和精准的提示跟随能力
视频处理 英语
M
genmo
27.13k
1,216
Animatediff Motion Lora Zoom Out
动态LoRAs能为动画添加特定类型的运动效果
视频处理
A
guoyww
11.43k
5
Ppo SpaceInvadersNoFrameskip V4
这是一个基于PPO算法的强化学习智能体,专门用于在SpaceInvadersNoFrameskip-v4游戏环境中进行训练和游戏。
视频处理
P
sb3
8,999
0
Stable Video Diffusion Img2vid Xt 1 1
其他
Stable Video Diffusion (SVD) 1.1 是一款基于扩散模型的图像转视频工具,能够将静态图像作为条件帧生成短视频片段。
视频处理
S
vdo
8,560
28
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98