# 複雜任務處理

Deepseek R1 0528 AWQ
MIT
DeepSeek-R1-0528 671B模型的4位AWQ量化版本,適合在高端GPU節點上使用
大型語言模型 Transformers
D
adamo1139
161
2
Qwen3 30B A6B 16 Extreme 128k Context
基於千問3-30B-A3B的混合專家模型微調版本,激活專家數提升至16,上下文窗口擴展至128k,適合複雜推理場景
大型語言模型 Transformers
Q
DavidAU
72
7
THUDM GLM 4 32B 0414 6.5bpw H8 Exl2
MIT
GLM-4-32B-0414是GLM家族的新成員,參數規模達320億,性能與GPT系列相當,支持本地部署。
大型語言模型 Transformers 支持多種語言
T
LatentWanderer
148
2
GLM 4 32B 0414 Unsloth Bnb 4bit
MIT
GLM-4-32B-0414是GLM家族的新成員,擁有320億參數,性能媲美GPT系列和DeepSeek系列,支持本地部署。
大型語言模型 Transformers 支持多種語言
G
unsloth
87
2
GLM 4 32B 0414 GGUF
MIT
GLM-4-32B-0414是擁有320億參數的大語言模型,性能媲美GPT-4o和DeepSeek-V3,支持中文和英語,具備卓越的代碼生成、函數調用和複雜任務處理能力。
大型語言模型 支持多種語言
G
unsloth
4,680
10
GLM 4 32B 0414
MIT
GLM-4-32B-0414是擁有320億參數規模的大語言模型,性能與GPT系列相當,支持中英文,擅長代碼生成、函數調用和複雜任務處理。
大型語言模型 Transformers 支持多種語言
G
THUDM
10.91k
320
Community Request 02 12B
基於多個12B參數規模的大語言模型融合而成,具備文本生成和對話能力
大型語言模型 Transformers
C
Nitral-AI
53
4
Community Request 01 12B
基於多個Captain-Eris系列模型通過mergekit工具合併的預訓練語言模型
大型語言模型 Transformers
C
Nitral-AI
19
3
QVQ 72B Preview GGUF
其他
QVQ-72B-Preview的GGUF量化版本,適用於本地部署和推理。
大型語言模型 Transformers 英語
Q
tensorblock
220
0
Reflection Llama 3.1 70B
Reflection Llama-3.1 70B 是一款開源大語言模型,採用'反思調優'技術訓練,能夠自主檢測推理錯誤並修正方向。
大型語言模型 Transformers
R
mattshumer
199
1,712
Badger Lambda Llama 3 8b
Badger是通過遞歸最大成對不相交歸一化去噪傅里葉插值方法生成的Llama3 8B指令模型,融合了多個優秀模型的特性。
大型語言模型 Transformers
B
maldv
24
11
Microsoft WizardLM 2 7B
Apache-2.0
WizardLM-2 7B是微軟AI團隊開發的高效大語言模型,基於Mistral-7B架構,在多語言、推理和代理任務上表現優異。
大型語言模型 Transformers
M
lucyknada
168
51
Kunoichi DPO V2 7B
Kunoichi-DPO-v2-7B是基於Mistral架構的7B參數大語言模型,採用DPO(Direct Preference Optimization)優化訓練,在多項基準測試中表現優異。
大型語言模型 Transformers
K
SanjiWatsuki
185
86
CAMEL 33B Combined Data
CAMEL-33B是基於LLaMA-33B微調的大語言模型,整合了CAMEL框架對話數據、ShareGPT公開對話和Alpaca指令數據,擅長多輪對話和指令理解。
大型語言模型 Transformers
C
camel-ai
97
6
Tulu 65b
Tulu 65B是基於多指令數據集微調的65B參數LLaMa模型,是開放資源指令調優研究的成果,綜合性能強勁。
大型語言模型 Transformers 英語
T
allenai
20
21
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase