Mistral Small 3.2 24B Instruct 2506 GGUF
Apache-2.0
Mistral Small 3.2 24B Instruct 2506 是一個多語言大語言模型,支持文本和圖像輸入,文本輸出,具有128k的上下文長度。
圖像生成文本 支持多種語言
M
lmstudio-community
5,588
1
Llama 3.3 70B Instruct 4bit DWQ
基於Llama 3.3 70B指令微調模型的4位DWQ量化版本,適用於MLX框架的高效推理
大型語言模型 支持多種語言
L
mlx-community
140
2
M1ndb0t 0M3N Q4 K M GGUF
基於Qwen3-14B大語言模型的高性能GGUF轉換版本,專為創造性推理、深層夢境邏輯、智能體交互和多語言指令優化
大型語言模型 英語
M
TheMindExpansionNetwork
18
1
Qwen3 30B A3B Quantized.w4a16
Apache-2.0
Qwen3-30B-A3B的INT4量化版本,通過權重量化減少75%的磁盤和GPU內存需求,保持高性能。
大型語言模型
Transformers

Q
RedHatAI
379
2
Qwen3 32B Quantized.w4a16
Apache-2.0
Qwen3-32B的INT4量化版本,通過權重量化減少75%的磁盤和GPU內存需求,保持高性能
大型語言模型
Transformers

Q
RedHatAI
2,213
5
Qwen3 30B A3B FP8 Dynamic
Apache-2.0
Qwen3-30B-A3B-FP8-dynamic是基於Qwen3-30B-A3B模型通過FP8量化優化的版本,顯著降低了內存需求和計算成本,同時保持了原始模型的高準確率。
大型語言模型
Transformers

Q
RedHatAI
187
2
Qwen3 32B FP8 Dynamic
Apache-2.0
基於Qwen3-32B進行FP8動態量化的高效語言模型,顯著降低內存需求並提升計算效率
大型語言模型
Transformers

Q
RedHatAI
917
8
Typhoon2.1 Gemma3 4b
泰語大語言模型(指令調優版),擁有40億參數、128K上下文長度且具備函數調用能力
大型語言模型
T
scb10x
2,083
3
Qwen3 14B GPTQ Int4
Apache-2.0
Qwen3-4B是通義千問系列最新40億參數大語言模型,支持思維模式與非思維模式切換,在推理、多語言和智能體任務中表現優異。
大型語言模型
Transformers

Q
JunHowie
640
2
Qwen3 1.7B FP8
Apache-2.0
Qwen3-1.7B-FP8 是 Qwen 系列最新一代大語言模型的 FP8 版本,具備強大的推理、指令遵循、智能體交互和多語言支持能力。
大型語言模型
Transformers

Q
Qwen
5,645
26
Qwen3 4B
Apache-2.0
Qwen3-4B是通義千問系列大模型的最新版本,提供40億參數的語言模型,支持思維與非思維模式切換,具備強大的推理、指令遵循和多語言能力。
大型語言模型
Transformers

Q
Qwen
307.26k
195
Qwen3 1.7B
Apache-2.0
Qwen3是通義千問系列最新一代大語言模型,提供完整的密集模型和專家混合(MoE)模型組合。基於大規模訓練,Qwen3在推理、指令遵循、智能體能力和多語言支持方面取得突破性進展。
大型語言模型
Transformers

Q
Qwen
395.72k
113
Llama 3.2 3B Instruct GGUF
Llama-3.2-3B-Instruct GGUF是Meta發佈的3B參數規模的大語言模型,採用IQ-DynamicGate技術進行超低位量化(1-2位),在保持內存效率的同時優化推理性能。
大型語言模型 支持多種語言
L
Mungert
656
3
Qwenphi 4 0.5b Draft
Apache-2.0
基於Qwen2.5-0.5B-Instruct構建,移植了microsoft/phi-4的詞表,可作為Phi-4的草稿模型使用。
大型語言模型
Transformers 支持多種語言

Q
rdsm
27
4
Granite 3.2 2b Instruct GGUF
Apache-2.0
Granite-3.2-2B-Instruct是一個20億參數的長上下文AI模型,專為思維推理能力微調。基於Granite-3.1-2B-Instruct構建,通過混合使用寬鬆許可的開源數據集和內部生成的合成數據訓練,旨在提升推理任務表現。
大型語言模型
G
Mungert
754
3
Phi 4 Mini Instruct Abliterated
MIT
Phi-4-mini-instruct是基於合成數據和精選公開網站構建的輕量級開源模型,專注於高質量、強推理能力的數據。支持128K令牌上下文長度,通過監督微調和直接偏好優化進行增強,以確保精準的指令遵循和安全性。
大型語言模型
Transformers 支持多種語言

P
lunahr
250
8
Yulan Mini Instruct
MIT
YuLan-Mini-Instruct是一個24億參數的緊湊但強大的文本生成模型,專注於數學和代碼推理任務,支持中英文。
大型語言模型
Transformers 支持多種語言

Y
yulan-team
97
2
Phi 4 Mini Instruct
MIT
Phi-4-mini-instruct是一個輕量級開源模型,基於合成數據和過濾後的公開網站數據構建,專注於高質量、富含推理能力的數據。支持128K令牌的上下文長度和多語言處理。
大型語言模型
Transformers 支持多種語言

P
microsoft
346.30k
455
Llama 3.1 Sherkala 8B Chat
Sherkala是一款80億參數的哈薩克語優先的多語言大語言模型,由G42旗下Inception與MBZUAI聯合開發,支持哈薩克語、英語、俄語和土耳其語。
大型語言模型 支持多種語言
L
inceptionai
155
14
Chocolatine 2 14B Instruct V2.0.3
Apache-2.0
Chocolatine-2-14B-Instruct-v2.0.3 是一個基於 Qwen-2.5-14B 架構的大語言模型,經過 DPO 微調,專注於法語和英語任務,在法語 LLM 排行榜中表現優異。
大型語言模型
Transformers 支持多種語言

C
jpacifico
329
14
Llama 3.3 70B Instruct AWQ
Llama-3.3-70B-Instruct的AWQ 4位量化版本,由Meta AI開發,支持多種語言,適用於文本生成任務。
大型語言模型
Transformers 支持多種語言

L
kosbu
379.28k
6
Vikhr Llama 3.2 1B Instruct
基於Llama-3.2-1B-Instruct的俄語優化指令模型,效率提升5倍,適合低功耗設備部署
大型語言模型
Transformers

V
Vikhrmodels
2,915
41
Llama 3 Swallow 8B Instruct V0.1
基於Meta Llama 3構建的日語優化大語言模型,通過持續預訓練增強日語能力,採用監督微調提升指令跟隨能力
大型語言模型
Transformers 支持多種語言

L
tokyotech-llm
13.88k
20
Phi 3 Medium 128k Instruct
MIT
Phi-3-Medium-128K-Instruct是一個擁有140億參數的輕量級開源模型,專注於高質量與強推理能力,支持128K上下文長度。
大型語言模型
Transformers 其他

P
microsoft
17.52k
381
Home 3B V3 GGUF
其他
Home 3B v3是基於StableLM-3B-Zephyr微調的模型,專為家庭自動化控制設計,支持多語言和設備控制。
大型語言模型 支持多種語言
H
acon96
5,016
35
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98