# 思維鏈優化

Fairyr1 32B GGUF
Apache-2.0
FairyR1-32B是由北大DS-LAB開發的高效大語言模型,基於DeepSeek-R1-Distill-Qwen-32B,通過'蒸餾-融合'創新流程實現高性能與低成本推理的平衡。
大型語言模型 Transformers 英語
F
Mungert
867
1
Fairyr1 32B
Apache-2.0
FairyR1-32B是一款高效的大型語言模型,基於DeepSeek-R1-Distill-Qwen-32B,通過優化的蒸餾與合併流程,在數學和編程任務上表現優異。
大型語言模型 Transformers 英語
F
PKU-DS-LAB
372
85
Denker Mistral Nemo 12B
Apache-2.0
Denker是一個小型、無審查、專注於推理的模型,基於mistral-nemo-kartoffel-12B使用ORPO和QLoRA進行微調。
大型語言模型 Transformers
D
nbeerbower
20
2
Qwen3 30B A6B 16 Extreme 128k Context
基於千問3-30B-A3B的混合專家模型微調版本,激活專家數提升至16,上下文窗口擴展至128k,適合複雜推理場景
大型語言模型 Transformers
Q
DavidAU
72
7
360zhinao3 7B O1.5
Apache-2.0
360智腦3-7B-O1.5是奇虎360開源的長思維鏈模型,基於360智腦3-7B-Instruct微調,支持複雜推理任務。
大型語言模型 Transformers 支持多種語言
3
qihoo360
35
3
MAI DS R1 FP8
MIT
MAI-DS-R1是微軟AI團隊對DeepSeek-R1推理模型進行後訓練的成果,旨在提升其對敏感話題的響應能力並優化風險表現,同時保持原有的推理能力和競爭優勢。
大型語言模型 Transformers
M
microsoft
845
18
Nova 0.5 R1 7B
Apache-2.0
基於OpenThoughts-114k-math數學數據集及其他增強思維能力訓練集打造的高性能推理模型
大型語言模型 Transformers 英語
N
oscar128372
18
2
QWQ 32B FP8
Apache-2.0
QwQ-32B-FP8 是 QwQ-32B 模型的 FP8 量化版本,保持了與 BF16 版本幾乎相同的準確率,同時支持更快的推理速度。
大型語言模型 Transformers
Q
qingcheng-ai
144
6
Deepseek R1 Medical CoT
MIT
基於DeepSeek-R1-Distill-Llama-8B微調的醫療思維鏈推理模型,通過QLoRA量化技術和Unsloth優化方案增強醫療推理能力。
大型語言模型
D
zijiechen156
49
2
Acemath 7B Instruct
AceMath-7B-Instruct是英偉達推出的專為數學推理設計的指導模型,基於改進版Qwen架構開發,擅長通過思維鏈(CoT)推理解決英文數學問題。
大型語言模型 英語
A
nvidia
1,454
22
Llamav O1
Apache-2.0
LlamaV-o1 是一款先進的多模態大語言模型,專為複雜的視覺推理任務而設計,通過課程學習技術優化,在多樣化的基準測試中展現出卓越性能。
文本生成圖像 英語
L
omkarthawakar
1,406
93
Codellama 7b Hf ReFT GSM8k
通過強化微調增強大語言模型的推理泛化能力,基於Codellama微調,適用於代碼生成與理解任務。
大型語言模型 Transformers
C
lqtrung1998
38
1
Llemma 7b
Llemma 34B 是一款專注於數學領域的語言模型,基於Code Llama 34B權重初始化,並在Proof-Pile-2數據集上訓練。
大型語言模型 Transformers 英語
L
EleutherAI
3,668
106
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase