Deepseek R1 0528 Qwen3 8B AWQ
MIT
DeepSeek-R1-0528是深度求索公司推出的升級版大語言模型,在推理能力、減少幻覺率等方面有顯著提升,整體性能接近領先模型。
大型語言模型
Transformers

D
stelterlab
249
1
Deepseek R1 0528 Bf16
MIT
DeepSeek-R1-0528是DeepSeek R1模型的小版本升級,通過增加計算資源和算法優化顯著提升了推理能力,在數學、編程和通用邏輯等多個基準評估中表現出色。
大型語言模型
Transformers

D
cognitivecomputations
129
1
Zlatorog 12B Instruct Beta
Zlatorog-12B-Instruct-Beta 是基於 Mistral Nemo 12B 微調的大語言模型,專為斯洛文尼亞語相關研究設計,支持指令跟隨、推理和工具增強生成任務。
大型語言模型
Transformers 支持多種語言

Z
zID4si
123
1
Kanana 1.5 8b Instruct 2505
Apache-2.0
Kanana 1.5是Kanana模型家族的新版本,在編碼、數學和函數調用能力方面相比前代有顯著提升,支持32K tokens長度並可擴展至128K tokens。
大型語言模型
Transformers 支持多種語言

K
kakaocorp
1,932
26
Qwen3 30B A3B Quantized.w4a16
Apache-2.0
Qwen3-30B-A3B的INT4量化版本,通過權重量化減少75%的磁盤和GPU內存需求,保持高性能。
大型語言模型
Transformers

Q
RedHatAI
379
2
Qwen3 32B Quantized.w4a16
Apache-2.0
Qwen3-32B的INT4量化版本,通過權重量化減少75%的磁盤和GPU內存需求,保持高性能
大型語言模型
Transformers

Q
RedHatAI
2,213
5
Qwen3 14B FP8 Dynamic
Apache-2.0
Qwen3-14B-FP8-dynamic 是一個經過優化的大語言模型,通過將激活值和權重量化為 FP8 數據類型,有效降低了 GPU 內存需求,提高了計算吞吐量。
大型語言模型
Transformers

Q
RedHatAI
167
1
Qwen3 8B FP8 Dynamic
Apache-2.0
Qwen3-8B-FP8-dynamic是基於Qwen3-8B模型通過FP8量化優化的版本,顯著降低了GPU內存需求和磁盤空間佔用,同時保持了原始模型的性能。
大型語言模型
Transformers

Q
RedHatAI
81
1
Qwen3 32B FP8 Dynamic
Apache-2.0
基於Qwen3-32B進行FP8動態量化的高效語言模型,顯著降低內存需求並提升計算效率
大型語言模型
Transformers

Q
RedHatAI
917
8
Trendyol LLM 7B Chat V4.1.0
Apache-2.0
Trendyol LLM v4.1.0 是一款基於 Trendyol LLM base v4.0(在130億token上繼續預訓練的Qwen2.5 7B版本)的生成模型,專注於電商領域和土耳其語理解。
大型語言模型 其他
T
Trendyol
854
25
Deephermes 3 Llama 3 3B Preview
DeepHermes 3 預覽版是 Nous Research 旗艦 Hermes 系列大語言模型的最新版本,結合了推理和普通響應模式,改進了註釋、判斷和函數調用功能。
大型語言模型
Transformers 英語

D
NousResearch
4,285
28
Lake 1 Advanced
MIT
Mistral-7B-Instruct-v0.3是基於Mistral-7B-v0.3進行指令微調的大語言模型,支持函數調用和擴展詞彙表。
大型語言模型
L
BICORP
62
2
Hermes 3 Llama 3.2 3B Abliterated
Hermes 3 3B 是 Nous Research 的 Hermes 系列 LLM 中一個雖小但強大的新成員,專注於將 LLM 與用戶對齊,賦予最終用戶強大的引導和控制能力。
大型語言模型
Transformers 英語

H
lunahr
33
5
Llama 3.2 3B Instruct Frog
專為越南語優化的RAG版LLaMA3.2模型,基於Meta的輕量級LLM開發,適合本地和邊緣設備部署。
大型語言模型
Safetensors 支持多種語言
L
phamhai
2,040
14
Mistral NeMo Minitron 8B Instruct
其他
Mistral-NeMo-Minitron-8B-Instruct 是 NVIDIA 開發的文本生成模型,支持角色扮演、檢索增強生成和函數調用等多種任務,具有高效、準確的特點。
大型語言模型
Transformers

M
nvidia
4,116
78
Deepseek V2.5
其他
DeepSeek-V2.5 是深度求索公司推出的一款高性能大語言模型,支持多種自然語言處理任務。
大型語言模型
Transformers

D
deepseek-ai
1,764
706
Minicpm3 4B
Apache-2.0
MiniCPM3-4B是MiniCPM系列第三代模型,整體性能超越Phi-3.5-mini-Instruct和GPT-3.5-Turbo-0125,與近期多個7B~9B量級模型表現相當。
大型語言模型
Transformers 支持多種語言

M
openbmb
15.94k
414
Mistral Nemo Instruct 2407
Apache-2.0
Mistral-Nemo-Instruct-2407是基於Mistral-Nemo-Base-2407進行指令微調的大語言模型,由Mistral AI與NVIDIA聯合訓練,性能超越同規模或更小的現有模型。
大型語言模型
Transformers 支持多種語言

M
mistralai
149.79k
1,519
Codegeex4 All 9b
其他
CodeGeeX4-ALL-9B是CodeGeeX4系列模型的最新開源版本,基於GLM-4-9B持續訓練,顯著提升了代碼生成能力。
大型語言模型
Transformers 支持多種語言

C
THUDM
294
251
Mistral Coreml
Apache-2.0
Mistral-7B-Instruct-v0.3 是 Mistral AI 基於 Mistral-7B-v0.3 進行指令微調的版本,已轉換為 CoreML 格式,提供 FP16 和 Int4 兩種精度版本。
大型語言模型
M
apple
110
65
Mistral 7B Instruct V0.3 AWQ
Apache-2.0
Mistral-7B-Instruct-v0.3是基於Mistral-7B-v0.3進行指令微調的大語言模型,採用4位AWQ量化技術優化推理效率
大型語言模型
Transformers

M
solidrust
48.24k
3
Mistral 7B Instruct V0.3 GGUF
Apache-2.0
Mistral-7B-Instruct-v0.3 是基於 Mistral-7B-v0.3 進行指令微調的大型語言模型,支持函數調用和擴展詞彙表。
大型語言模型
M
SanctumAI
34.61k
9
Mistral 7B Instruct V0.3 GPTQ
Apache-2.0
Mistral-7B-Instruct-v0.3是基於Mistral-7B-v0.3進行指令微調的大語言模型,提供了GPTQ 4位量化版本
大型語言模型
Transformers

M
thesven
1,391
1
Mistral 7B Instruct V0.3
Apache-2.0
Mistral-7B-Instruct-v0.3 是基於 Mistral-7B-v0.3 進行指令微調的大型語言模型,支持函數調用和擴展詞彙表。
大型語言模型
Transformers

M
mistralai
709.57k
1,652
Hermes 2 Theta Llama 3 8B 32k
Hermes-2 Θ Llama-3 8B是一款結合Hermes 2 Pro和Meta's Llama-3 Instruct優勢的強大模型,在多種任務上表現出色,支持多種提示格式和功能調用。
大型語言模型
Transformers 英語

H
OpenPipe
1,784
8
Llama3 70B Chinese Chat
Llama3-70B-Chinese-Chat是基於Meta-Llama-3-70B-Instruct開發的中英文雙語大語言模型,專為中英文用戶設計,具備角色扮演、工具使用和數學計算等多種能力。
大型語言模型
Transformers 支持多種語言

L
shenzhi-wang
58
102
Bagel 8b V1.0
其他
基於Meta的Llama-3構建的8B參數模型,使用貝果數據集微調,採用單一的llama-3指令格式。
大型語言模型
Transformers

B
jondurbin
14.11k
53
Llama3 8B Chinese Chat GGUF F16
基於Meta-Llama-3-8B-Instruct微調的中英文雙語對話模型,優化了中文回答質量,支持角色扮演和函數調用
大型語言模型 支持多種語言
L
shenzhi-wang
199
28
Llama3 8B Chinese Chat
基於Meta-Llama-3-8B-Instruct微調的中英文對話模型,優化了中文回答質量,減少中英文混雜問題。
大型語言模型
Transformers 支持多種語言

L
shenzhi-wang
2,777
678
Meta Llama 3 8B Instruct Function Calling Json Mode
該模型基於 meta-llama/Meta-Llama-3-8B-Instruct 進行了微調,專門用於函數調用和 JSON 模式。
大型語言模型
Transformers 英語

M
hiieu
188
75
Mixtral 8x22B Instruct V0.1 GGUF
Apache-2.0
基於mistralai/Mixtral-8x22B-Instruct-v0.1模型的GGUF量化版本,支持多語言文本生成任務
大型語言模型 支持多種語言
M
MaziyarPanahi
1,333
33
Mixtral 8x22B Instruct V0.1
Apache-2.0
Mixtral-8x22B-Instruct-v0.1是基於Mixtral-8x22B-v0.1進行指令微調的大語言模型,支持多種語言和函數調用功能。
大型語言模型
Transformers 支持多種語言

M
mistralai
12.80k
723
Matter 0.1 7B Boost GGUF
Apache-2.0
Matter 7B是基於Mistral 7B微調的模型,專為文本生成任務設計,支持對話式交互和函數調用。
大型語言模型 英語
M
munish0838
170
1
Matter 0.1 7B GGUF
Apache-2.0
Matter 7B是基於Mistral 7B微調的模型,專為文本生成任務設計,支持對話式交互和函數調用。
大型語言模型 英語
M
munish0838
127
1
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98