Omnigen2
Apache-2.0
OmniGen2 是一个强大且高效的统一多模态模型,由 3B 视觉语言模型和 4B 扩散模型构成,支持视觉理解、文本到图像生成、指令引导的图像编辑和上下文生成。
文本生成图像
O
OmniGen2
136
5
Blip Arabic Flickr 8k
MIT
基于BLIP架构微调的阿拉伯语图像字幕生成模型,专门针对Flickr8k阿拉伯语数据集优化
图像生成文本
Transformers 支持多种语言

B
omarsabri8756
56
1
GLM 4 32B 0414 GGUF
MIT
GLM-4-32B-0414是拥有320亿参数的大语言模型,性能媲美GPT-4o和DeepSeek-V3,支持中文和英语,具备卓越的代码生成、函数调用和复杂任务处理能力。
大型语言模型 支持多种语言
G
unsloth
4,680
10
Fashion BLIP
Apache-2.0
BLIP 是一个基于 Transformer 的图像到文本生成模型,能够为输入图像生成自然语言描述。
图像生成文本
F
kzap201
585
0
Skyreels V2 DF 1.3B 540P
其他
SkyReels V2是首个采用自回归扩散强制架构的开源视频生成模型,支持无限时长电影生成,在公开模型中实现最先进的性能表现。
视频处理
S
Skywork
600
23
Instancecap Captioner
其他
基于Qwen2.5-VL-7B-Instruct在instancevid数据集上微调的视觉语言模型,专注于实例级图像描述生成
图像生成文本
Transformers

I
AnonMegumi
14
1
GLM 4 32B 0414
MIT
GLM-4-32B-0414是拥有320亿参数规模的大语言模型,性能与GPT系列相当,支持中英文,擅长代码生成、函数调用和复杂任务处理。
大型语言模型
Transformers 支持多种语言

G
THUDM
10.91k
320
SIMS 7B
MIT
基于Qwen2.5-7B扩展的语音语言模型,支持语音-文本交错训练和跨模态生成
文本生成音频
Transformers 英语

S
slprl
51
1
Llama 3.2 Vision Instruct Bpmncoder
Apache-2.0
基于Unsloth优化的Llama 3.2 11B视觉指令微调模型,采用4位量化技术,训练速度提升2倍
文本生成图像
Transformers 英语

L
utkarshkingh
40
1
Qwen2 Vl Instuct Bpmncoder
Apache-2.0
基于Qwen2-VL-7B模型的4位量化版本,使用Unsloth和Huggingface TRL库进行训练,推理速度提升2倍
文本生成图像
Transformers 英语

Q
utkarshkingh
18
1
Vit Gpt2 Image Captioning
Apache-2.0
这是一个基于ViT和GPT2架构的图像描述生成模型,能够为输入的图像生成自然语言描述。
图像生成文本
V
aryan083
31
0
Cockatiel 13B
基于VILA-v1.5-13B开发的视频文本生成模型,能够为输入视频生成精细的描述文本,符合人类偏好。
视频生成文本
Transformers

C
Fr0zencr4nE
26
2
Llama 3.2 11B Vision Invoices Mini
Apache-2.0
基于unsloth/llama-3.2-11b-vision-instruct-unsloth-bnb-4bit微调的多模态大语言模型,支持视觉指令理解任务,使用Unsloth优化训练速度提升2倍。
文本生成图像
Transformers 英语

L
atulSethi
46
1
Qwenfluxprompt
Apache-2.0
这是一个为Wan2.1 14B视频生成模型训练的LoRA,适用于文本转视频和图像转视频任务。
视频处理 支持多种语言
Q
mam33
25
0
Liquid V1 7B
MIT
Liquid 是一种自回归生成范式,通过将图像标记化为离散代码并在共享特征空间中学习这些代码嵌入与文本标记,实现了视觉理解与生成的无缝融合。
文本生成图像
Transformers 英语

L
Junfeng5
11.35k
84
Molmo 7B D 0924 NF4
Apache-2.0
Molmo-7B-D-0924的4Bit量化版本,通过NF4量化策略降低显存占用,适用于显存受限环境。
图像生成文本
Transformers

M
Scoolar
1,259
1
Mini Image Captioning
Apache-2.0
一个基于bert-mini和vit-small的轻量级图像字幕生成模型,仅重130MB,在CPU上运行速度极快。
图像生成文本
Transformers 英语

M
cnmoro
292
3
Janus Pro 1B ONNX
MIT
Janus-Pro-1B 是一个多模态因果语言模型,支持文本到图像、图像到文本等多种任务。
文本生成图像
Transformers

J
onnx-community
3,010
47
Longva 7B TPO
MIT
LongVA-7B-TPO是基于LongVA-7B通过时序偏好优化而来的视频-文本模型,在长视频理解任务中表现优异。
视频生成文本
Transformers

L
ruili0
225
1
Hunyuanvideo HFIE
其他
腾讯混元视频是一个文本生成视频的模型,适配于Hugging Face推理端点。
文本生成视频 英语
H
jbilcke-hf
21
1
Instructcir Llava Phi35 Clip224 Lp
Apache-2.0
InstructCIR是一个基于指令感知对比学习的组合式图像检索模型,采用ViT-L-224和Phi-3.5-Mini架构,专注于图像文本到文本生成任务。
图像生成文本
I
uta-smile
15
2
Captain Eris Violet V0.420 12B
其他
Captain Violet 是一个12B参数规模的合并模型,由Epiculous/Violet_Twilight-v0.2和Nitral-AI/Captain_BMO-12B通过mergekit工具合并而成,支持文本生成任务。
大型语言模型
Transformers 英语

C
Nitral-AI
445.12k
41
Cogvideox 2B LiFT
MIT
CogVideoX-2B-LiFT是基于奖励加权学习方法对CogVideoX-1.5进行微调的文本到视频生成模型
文本生成视频 英语
C
Fudan-FUXI
21
1
Llama 3.2 11B Vision Radiology Mini
Apache-2.0
基于Unsloth优化的视觉指令微调模型,支持多模态任务处理
文本生成图像
Transformers 英语

L
mervinpraison
39
2
Thaicapgen Clip Gpt2
基于CLIP编码器和GPT2架构的编码器-解码器模型,用于生成泰语图像描述
图像生成文本 其他
T
Natthaphon
18
0
Janus 1.3B ONNX
其他
Janus-1.3B 是一个多模态因果语言模型,支持文本到图像、图像到文本以及图像文本到文本的转换任务。
文本生成图像
Transformers

J
onnx-community
123
15
Omnigen V1
MIT
OmniGen是一个统一的图像生成模型,支持多种图像生成任务。
图像生成
O
Shitao
5,886
309
Emu3 Stage1
Apache-2.0
Emu3是由北京智源研究院开发的多模态模型,仅通过预测下一个标记训练而成,支持图像、文本和视频处理。
文本生成图像
Transformers

E
BAAI
1,359
26
Sd15.ip Adapter.plus
Apache-2.0
基于IP-Adapter技术的图像到图像适配器,用于稳定扩散模型SD1.5,支持通过图像提示生成艺术图像。
图像生成
Safetensors 其他
S
refiners
112
0
Swin Distilbertimbau
MIT
基于Swin Transformer和DistilBERTimbau的巴西葡萄牙语图像描述生成模型
图像生成文本
Transformers 其他

S
laicsiifes
18
3
Aim Xlarge
MIT
AiM是一个基于PyTorch的无条件图像生成模型,通过PytorchModelHubMixin集成推送到Hugging Face Hub。
图像生成
A
hp-l33
23
5
Show O W Clip Vit
MIT
Show-o 是一个基于 PyTorch 的任意到任意转换模型,专注于多模态任务处理。
文本生成图像
S
showlab
18
2
Show O
MIT
Show-o 是一个基于 PyTorch 的任意到任意转换模型,支持多种模态的输入和输出转换。
文本生成视频
S
showlab
225
16
Florence 2 Flux
Apache-2.0
基于microsoft/Florence-2-base的图像文本到文本模型,适用于艺术相关的图像描述等任务。
图像生成文本
Transformers 支持多种语言

F
gokaygokay
3,437
13
Cogflorence 2.2 Large
MIT
该模型是microsoft/Florence-2-large的微调版本,在Ejafa/ye-pop数据集的4万张图像子集上进行训练,标注文本由THUDM/cogvlm2-llama3-chat-19B生成,适用于图像转文本任务。
图像生成文本
Transformers 支持多种语言

C
thwri
20.64k
33
Lumina Mgpt 7B 1024
Lumina-mGPT 是一个多模态自回归模型家族,擅长根据文本描述生成灵活逼真的图像,并能执行多种视觉和语言任务。
文本生成图像
L
Alpha-VLLM
27
9
Lumina Mgpt 7B 768
Lumina-mGPT 是一个多模态自回归模型家族,擅长根据文本描述生成灵活逼真的图像,并能执行多种视觉与语言任务。
文本生成图像
Transformers

L
Alpha-VLLM
1,944
33
Lumina Mgpt 7B 768 Omni
Lumina-mGPT 是一个多模态自回归模型系列,擅长根据文本描述生成灵活逼真的图像。
文本生成图像
Transformers

L
Alpha-VLLM
264
7
Cogflorence 2.1 Large
MIT
该模型是microsoft/Florence-2-large的微调版本,在Ejafa/ye-pop数据集的4万张图像子集上进行了训练,标注由THUDM/cogvlm2-llama3-chat-19B生成,专注于图像转文本任务。
图像生成文本
Transformers 支持多种语言

C
thwri
2,541
22
Latte 1
Apache-2.0
Latte是一个基于Transformer的潜在扩散模型,专注于文本生成视频任务,支持多种数据集预训练权重。
文本生成视频
L
maxin-cn
1,027
19
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98