Mistral Small 3.2 24B Instruct 2506 GGUF
Apache-2.0
Mistral-Small-3.2-24B-Instruct-2506 是一個圖像文本到文本的模型,在模型量化方面表現出色,指令遵循、減少重複錯誤和函數調用等方面有顯著提升。
圖像生成文本 支持多種語言
M
unsloth
8,640
32
Pixelreasoner RL V1
Apache-2.0
PixelReasoner是一個基於Qwen2.5-VL-7B-Instruct的視覺語言模型,採用好奇心驅動強化學習訓練,專注於圖像文本到文本的任務。
圖像生成文本
Transformers 英語

P
TIGER-Lab
112
3
Jedi 7B 1080p
Apache-2.0
Qwen2.5-VL-7B-Instruct 是一個基於 Qwen2.5 架構的多模態模型,支持圖像和文本的聯合處理,適用於視覺語言任務。
圖像生成文本 英語
J
xlangai
239
2
Ultravox V0 5 Llama 3 1 8b
MIT
基於Llama-3.1-8B-Instruct的多語言音頻文本轉文本模型,支持40多種語言處理
大型語言模型
Transformers 支持多種語言

U
FriendliAI
218
0
Llama 4 Scout 17B 16E Instruct FP8 Dynamic
其他
基於Llama-4構建的17B參數多語言指令模型,採用FP8量化優化,顯著降低資源需求
圖像生成文本
Safetensors 支持多種語言
L
RedHatAI
5,812
8
Qwen2.5 VL 32B Instruct GGUF
Apache-2.0
Qwen2.5-VL-32B-Instruct 是一個32B參數規模的多模態視覺語言模型,支持圖像和文本的聯合理解與生成任務。
圖像生成文本 英語
Q
Mungert
9,766
6
Qwen.qwen2.5 VL 32B Instruct GGUF
Qwen2.5-VL-32B-Instruct 是一個32B參數規模的多模態視覺語言模型,支持圖像與文本的聯合理解與生成任務。
圖像生成文本
Q
DevQuasar
27.50k
1
Qwen2.5 VL 32B Instruct W4A16 G128
Apache-2.0
Qwen2.5-VL-32B-Instruct 是一個32B參數規模的多模態大語言模型,支持視覺和語言任務,適用於複雜的多模態交互場景。
圖像生成文本
Q
leon-se
16
2
Qwen2 VL 2B Instruct
Apache-2.0
Qwen2-VL-2B-Instruct 是一個多模態視覺語言模型,支持圖像文本到文本的任務。
圖像生成文本
Transformers 英語

Q
FriendliAI
24
1
Instructclip InstructPix2Pix
Apache-2.0
InstructCLIP是一種通過對比學習自動數據優化改進指令引導的圖像編輯模型,結合了CLIP和穩定擴散技術,能夠根據文本指令編輯圖像。
文本生成圖像 英語
I
SherryXTChen
450
5
Qwen2 VL 7B Visual Rft Lisa IoU Reward
Apache-2.0
Qwen2-VL-7B-Instruct 是一個基於 Qwen2 架構的視覺語言模型,支持圖像和文本的多模態輸入,適用於多種視覺語言任務。
圖像生成文本 英語
Q
Zery
726
4
Qwen 2 VL 7B OCR
Apache-2.0
基於Qwen2-VL-7B模型的微調版本,使用Unsloth和Huggingface的TRL庫進行訓練,速度提升2倍。
文本生成圖像
Transformers 英語

Q
Swapnik
103
1
Llama 3.2 11B Vision OCR
Apache-2.0
基於Unsloth優化的Llama 3.2-11B視覺指令模型,4bit量化版本,訓練速度提升2倍
大型語言模型
Transformers 英語

L
Swapnik
80
1
Llama 3 2 11b Vision Electrical Components Instruct
MIT
Llama 3.2 11B Vision Instruct 是一個結合視覺和語言的多模態模型,支持圖像轉文本任務。
圖像生成文本 英語
L
ankitelastiq
22
1
Phi 4 Multimodal Instruct
MIT
Phi-4-multimodal-instruct是一款輕量級開源多模態基礎模型,融合了Phi-3.5和4.0模型的語言、視覺及語音研究與數據集。支持文本、圖像和音頻輸入,生成文本輸出,並具備128K標記的上下文長度。
多模態融合
Transformers 支持多種語言

P
Robeeeeeeeeeee
21
1
Phi 4 Multimodal Instruct Onnx
MIT
Phi-4多模態模型的ONNX版本,已量化為int4精度,通過ONNX Runtime加速推理,支持文本、圖像和音頻輸入。
多模態融合 其他
P
microsoft
159
66
Qwen2.5 VL 7B Instruct 4bit
Apache-2.0
基於Qwen2.5-VL-7B-Instruct模型微調的多模態模型,採用Unsloth加速框架和TRL庫訓練,速度提升2倍
文本生成圖像
Transformers 英語

Q
jarvisvasu
180
1
Llama 3.2 11B Vision Instruct GGUF
Llama-3.2-11B-Vision-Instruct 是一個支持多語言的視覺-語言模型,可用於圖像文本到文本的轉換任務。
圖像生成文本
Transformers 支持多種語言

L
pbatra
172
1
Pixtral Large Instruct 2411
其他
Pixtral-Large-Instruct-2411是基於MistralAI技術的多模態指令微調模型,支持圖像和文本輸入,具備多語言處理能力。
圖像生成文本
Transformers 支持多種語言

P
nintwentydo
23
2
Qwen2 VL 7B Instruct GGUF
Apache-2.0
Qwen2-VL-7B-Instruct 是一個7B參數規模的多模態模型,支持圖像與文本的交互任務。
圖像生成文本 英語
Q
gaianet
102
2
Qwen2 VL 7B Instruct Onnx
Apache-2.0
這是一個基於Qwen2-VL架構的7B參數規模的視覺語言模型,支持圖像理解和指令交互。
文本生成圖像
Transformers

Q
pdufour
47
4
Taivisionlm Base V2
首個支持繁體中文指令輸入的視覺語言模型(12億參數),兼容Transformers庫,加載迅速、微調便捷
圖像生成文本
Transformers 中文

T
benchang1110
122
4
Openvla 7b Finetuned Libero 10
MIT
該模型是通過在LIBERO-10數據集上採用LoRA方法微調OpenVLA 7B模型得到的視覺語言動作模型,適用於機器人技術領域。
圖像生成文本
Transformers 英語

O
openvla
1,779
2
Openvla 7b Finetuned Libero Goal
MIT
這是一個在LIBERO-Goal數據集上使用LoRA技術微調的OpenVLA 7B視覺語言動作模型,適用於機器人技術領域。
圖像生成文本
Transformers 英語

O
openvla
746
1
Octo Small 1.5
MIT
Octo小型版是一個用於機器人控制的擴散策略模型,採用Transformer架構,能夠根據視覺輸入和語言指令預測機器人動作。
多模態融合
Transformers

O
rail-berkeley
250
6
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98