VL Reasoner 7B
Apache-2.0
VL-Reasoner-7B 是一個基於 GRPO-SSR 技術訓練的多模態推理模型,在多項多模態推理基準測試中表現卓越。
文本生成圖像
Transformers 英語

V
TIGER-Lab
126
1
Phi 4 Multimodal Instruct
MIT
Phi-4-multimodal-instruct是一款輕量級開源多模態基礎模型,融合了Phi-3.5和4.0模型的語言、視覺及語音研究數據。支持文本、圖像和音頻輸入,生成文本輸出,並具備128K token的上下文長度。
文本生成音頻
Transformers 支持多種語言

P
microsoft
584.02k
1,329
Spec Vision V1
MIT
Spec-Vision-V1是一款輕量級、最先進的開源多模態模型,專為深度整合視覺與文本數據而構建,支持128K的上下文長度。
文本生成圖像
Transformers 其他

S
SVECTOR-CORPORATION
17
1
Qwen2.5 VL 7B Instruct Quantized.w4a16
Apache-2.0
Qwen2.5-VL-7B-Instruct的量化版本,支持視覺-文本輸入和文本輸出,權重量化為INT4,激活量化為FP16。
文本生成圖像
Transformers 英語

Q
RedHatAI
605
3
Reflectiva
Apache-2.0
ReflectiVA是一種多模態大語言模型,通過整合外部知識源和反思令牌機制增強視覺問答能力。
文本生成圖像
Transformers

R
aimagelab
46
2
Florence 2 VLM Doc VQA
基於microsoft/Florence-2-base-ft微調的視覺問答(VQA)專用版本,能夠解讀圖像內容並回答相關問題
文本生成圖像
Transformers 英語

F
prithivMLmods
69
4
H2ovl Mississippi 2b
Apache-2.0
H2OVL-Mississippi-2B是由H2O.ai開發的高性能通用視覺語言模型,能夠處理廣泛的多模態任務。該模型擁有20億參數,在圖像描述、視覺問答(VQA)和文檔理解等任務中表現出色。
圖像生成文本
Transformers 英語

H
h2oai
91.28k
34
Xinyuan VL 2B
Apache-2.0
Xinyuan-VL-2B 是賽靈格集團推出的面向終端側的高性能多模態大模型,基於 Qwen/Qwen2-VL-2B-Instruct 微調而成,使用了超過500萬條多模態數據及少量純文本數據。
文本生成圖像
Transformers 支持多種語言

X
Cylingo
94
7
Tvl Mini 0.1
Apache-2.0
這是基於俄語對Qwen2-VL-2B模型進行的LORA微調版本,支持多模態任務。
圖像生成文本
Transformers 支持多種語言

T
2Vasabi
23
2
Eilev Blip2 Flan T5 Xl
MIT
針對第一人稱視角視頻優化的視覺語言模型,採用EILEV創新訓練方法激發上下文學習能力
圖像生成文本
Transformers 英語

E
kpyu
135
1
Volcano 7b
Volcano-7b是一個多模態自反饋引導的修訂模型,通過混合視覺指令調優數據集與多模態反饋和修訂數據對vicuna-7b-v1.5模型進行微調。
圖像生成文本
Transformers 英語

V
kaist-ai
268
3
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98