Deepseek R1 0528 AWQ
MIT
DeepSeek-R1-0528 671B模型的4位AWQ量化版本,適合在高端GPU節點上使用
大型語言模型
Transformers

D
adamo1139
161
2
Qwen3 30B A6B 16 Extreme 128k Context
基於千問3-30B-A3B的混合專家模型微調版本,激活專家數提升至16,上下文窗口擴展至128k,適合複雜推理場景
大型語言模型
Transformers

Q
DavidAU
72
7
THUDM GLM 4 32B 0414 6.5bpw H8 Exl2
MIT
GLM-4-32B-0414是GLM家族的新成員,參數規模達320億,性能與GPT系列相當,支持本地部署。
大型語言模型
Transformers 支持多種語言

T
LatentWanderer
148
2
GLM 4 32B 0414 Unsloth Bnb 4bit
MIT
GLM-4-32B-0414是GLM家族的新成員,擁有320億參數,性能媲美GPT系列和DeepSeek系列,支持本地部署。
大型語言模型
Transformers 支持多種語言

G
unsloth
87
2
GLM 4 32B 0414 GGUF
MIT
GLM-4-32B-0414是擁有320億參數的大語言模型,性能媲美GPT-4o和DeepSeek-V3,支持中文和英語,具備卓越的代碼生成、函數調用和複雜任務處理能力。
大型語言模型 支持多種語言
G
unsloth
4,680
10
GLM 4 32B 0414
MIT
GLM-4-32B-0414是擁有320億參數規模的大語言模型,性能與GPT系列相當,支持中英文,擅長代碼生成、函數調用和複雜任務處理。
大型語言模型
Transformers 支持多種語言

G
THUDM
10.91k
320
Community Request 02 12B
基於多個12B參數規模的大語言模型融合而成,具備文本生成和對話能力
大型語言模型
Transformers

C
Nitral-AI
53
4
Community Request 01 12B
基於多個Captain-Eris系列模型通過mergekit工具合併的預訓練語言模型
大型語言模型
Transformers

C
Nitral-AI
19
3
QVQ 72B Preview GGUF
其他
QVQ-72B-Preview的GGUF量化版本,適用於本地部署和推理。
大型語言模型
Transformers 英語

Q
tensorblock
220
0
Reflection Llama 3.1 70B
Reflection Llama-3.1 70B 是一款開源大語言模型,採用'反思調優'技術訓練,能夠自主檢測推理錯誤並修正方向。
大型語言模型
Transformers

R
mattshumer
199
1,712
Badger Lambda Llama 3 8b
Badger是通過遞歸最大成對不相交歸一化去噪傅里葉插值方法生成的Llama3 8B指令模型,融合了多個優秀模型的特性。
大型語言模型
Transformers

B
maldv
24
11
Microsoft WizardLM 2 7B
Apache-2.0
WizardLM-2 7B是微軟AI團隊開發的高效大語言模型,基於Mistral-7B架構,在多語言、推理和代理任務上表現優異。
大型語言模型
Transformers

M
lucyknada
168
51
Kunoichi DPO V2 7B
Kunoichi-DPO-v2-7B是基於Mistral架構的7B參數大語言模型,採用DPO(Direct Preference Optimization)優化訓練,在多項基準測試中表現優異。
大型語言模型
Transformers

K
SanjiWatsuki
185
86
CAMEL 33B Combined Data
CAMEL-33B是基於LLaMA-33B微調的大語言模型,整合了CAMEL框架對話數據、ShareGPT公開對話和Alpaca指令數據,擅長多輪對話和指令理解。
大型語言模型
Transformers

C
camel-ai
97
6
Tulu 65b
Tulu 65B是基於多指令數據集微調的65B參數LLaMa模型,是開放資源指令調優研究的成果,綜合性能強勁。
大型語言模型
Transformers 英語

T
allenai
20
21
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98