# 數學推理

Openthinker3 7B GGUF
Apache-2.0
OpenThinker3-7B-GGUF 是 open-thoughts/OpenThinker3-7B 的量化版本,專為高效推理優化,基於 Qwen/Qwen2.5-7B-Instruct 微調,在數學、代碼和科學問題上表現優異。
大型語言模型 Transformers
O
QuantFactory
114
2
Chinda Qwen3 4b Gguf
Apache-2.0
Chinda LLM 4B是iApp Technology推出的前沿泰語模型,基於Qwen3-4B架構構建,為泰國AI生態系統帶來先進的思考能力。
大型語言模型
C
iapp
115
1
Openr1 Distill 7B
Apache-2.0
OpenR1-Distill-7B是基於Qwen2.5-Math-7B在Mixture-of-Thoughts數據集上後訓練的版本,旨在教會語言模型進行逐步推理。
大型語言模型 Transformers 英語
O
open-r1
134
6
Thinkless 1.5B RL DeepScaleR
Apache-2.0
Thinkless是一個通過強化學習訓練的大語言模型,能夠自適應選擇簡答或長鏈推理模式,顯著降低推理計算成本。
大型語言模型 Transformers
T
Vinnnf
197
1
Thinkless 1.5B Warmup
Apache-2.0
無思框架(Thinkless)是一種可學習框架,使大模型能根據任務複雜度和自身能力,自適應選擇簡短推理或長鏈推理。
大型語言模型 Transformers
T
Vinnnf
966
1
Ophiuchi Qwen3 14B Instruct
Apache-2.0
基於Qwen3-14B架構構建的指令微調模型,專精數學推理、代碼生成和事實準確性
大型語言模型 Transformers 支持多種語言
O
prithivMLmods
21
3
E1 Math 1.5B
E1-Math-1.5B是基於DeepSeek-R1-Distilled-Qwen-1.5B微調的語言模型,支持彈性推理和GRPO方法,適用於預算受限的推演場景。
大型語言模型 Transformers
E
Salesforce
295
4
Spec T1 RL 7B
MIT
Spec-T1-RL-7B 是一款專注於數學推理、算法問題解決和代碼生成的高精度大語言模型,在技術基準測試中表現卓越。
大型語言模型 Safetensors 英語
S
SVECTOR-CORPORATION
4,626
6
Olmo 2 0425 1B Instruct GGUF
Apache-2.0
OLMo 2 1B指令版是基於OLMo-2-0425-1B-RLVR1模型的後訓練變體,經過監督微調、DPO訓練和RLVR訓練,旨在實現多種任務的最先進性能。
大型語言模型 英語
O
unsloth
3,137
3
Phi 4 Mini Reasoning MLX 4bit
MIT
這是一個基於微軟Phi-4-mini-reasoning模型轉換的MLX格式4位量化版本,適用於文本生成任務。
大型語言模型
P
lmstudio-community
72.19k
2
Phi 4 Reasoning GGUF
MIT
Phi-4-reasoning是基於Phi-4微調的先進推理模型,通過監督微調與強化學習,在數學、科學和編碼等領域展現出卓越的推理能力。
大型語言模型 Transformers
P
unsloth
6,046
7
Phi 4 Mini Reasoning GGUF
MIT
Phi-4-mini-reasoning是一個基於合成數據的輕量級開放模型,專注於高質量、密集推理數據,並進一步微調以增強數學推理能力。
大型語言模型 支持多種語言
P
unsloth
21.71k
27
Phi 4 Mini Reasoning
MIT
Phi-4-mini-reasoning 是一個輕量級的開源模型,專注於數學推理任務,支持128K令牌的上下文長度。
大型語言模型 Transformers
P
unsloth
591
2
Deepseek Prover V2 671B
專為Lean 4形式化定理證明設計的開源大語言模型,通過遞歸定理證明流程收集數據,結合非正式和形式化的數學推理。
大型語言模型 Transformers
D
deepseek-ai
9,693
773
Phi 4 Mini Reasoning
MIT
Phi-4-mini-reasoning是一個輕量級的開源模型,專注於高質量、密集推理的數據,並進一步微調以獲得更高級的數學推理能力。
大型語言模型 Transformers 支持多種語言
P
microsoft
18.93k
152
Olmo 2 0425 1B Instruct
Apache-2.0
OLMo 2 1B是基於allenai/OLMo-2-0425-1B-RLVR1模型的後訓練變體,經過監督微調、DPO訓練和RLVR訓練,旨在實現多種任務的最先進性能。
大型語言模型 Transformers 英語
O
allenai
5,127
33
Acemath RL Nemotron 7B
其他
基於深度學習的數學問題自動求解系統,支持代數、幾何、微積分等多種數學題型
大型語言模型 Transformers 英語
A
nvidia
2,990
16
Openmath Nemotron 32B
OpenMath-Nemotron-32B 是通過在 OpenMathReasoning 數據集上微調 Qwen2.5-32B 創建的數學推理模型,在多個數學基準測試中取得最先進結果。
大型語言模型 Transformers 英語
O
nvidia
189
22
Openmath Nemotron 14B
OpenMath-Nemotron-14B 是基於 Qwen2.5-14B 在 OpenMathReasoning 數據集上微調的數學推理模型,在多個數學基準測試中取得最先進結果。
大型語言模型 Transformers 英語
O
nvidia
183
9
Openmath Nemotron 14B Kaggle
基於Qwen2.5-14B微調的數學推理模型,在AIMO-2 Kaggle競賽中獲得第一名
大型語言模型 Transformers 英語
O
nvidia
66
11
Openmath Nemotron 7B
OpenMath-Nemotron-7B 是基於 Qwen2.5-Math-7B 在 OpenMathReasoning 數據集上微調的數學推理模型,在多個數學基準測試中取得最先進結果。
大型語言模型 Transformers 英語
O
nvidia
153
6
Turkish Gemma 9b V0.1
Turkish-Gemma-9b-v0.1是基於Gemma-2-9b開發的土耳其語文本生成模型,通過持續預訓練、監督微調(SFT)、直接偏好優化(DPO)和模型合併技術優化而成。
大型語言模型 Safetensors
T
ytu-ce-cosmos
167
18
La Superba 14B Y.2
Apache-2.0
基於Qwen 2.5 14B架構構建的新一代語言模型,專為數學推理、編程和通用邏輯任務優化。
大型語言模型 Transformers 支持多種語言
L
prithivMLmods
19
2
Phi 4 Reasoning
MIT
Phi-4推理是基於Phi-4通過監督微調思維鏈軌跡數據集和強化學習訓練的前沿開放權重推理模型,專注於數學、科學和編程技能。
大型語言模型 Transformers 支持多種語言
P
microsoft
11.31k
172
Phi 4 Mini Instruct Float8dq
MIT
Phi-4-mini-instruct模型經torchao進行float8動態激活和權重量化,在H100上實現36%顯存降低和15-20%速度提升,幾乎不影響精度。
大型語言模型 Transformers 其他
P
pytorch
1,006
1
Nova 0.5 E3 7B
Apache-2.0
Nova 0.5 e3是一個7B參數的文本生成模型,展現出令人驚異的湧現特性,特別是在數學推理方面表現出色。
大型語言模型 Transformers 英語
N
oscar128372
90
2
Reasonflux F1 7B
其他
ReasonFlux-F1-7B是基於思維模板擴展的分層大語言模型推理模型,通過模板增強推理軌跡微調而成,在多項推理任務中表現優異。
大型語言模型 Transformers
R
Gen-Verse
291
2
Deepseek R1 14b Cot Math Reasoning Full GGUF
MIT
14B參數規模的數學推理大語言模型,支持思維鏈推理
大型語言模型
D
tensorblock
838
2
Thinkedit Deepseek Qwen 14b
其他
ThinkEdit是一種輕量級權重編輯方法,通過識別並編輯少量注意力頭,緩解大語言模型在推理任務中生成過度簡短思維鏈的問題,提升推理準確性。
大型語言模型 Transformers
T
cesun
46
2
Gemma Reasoning Genius
Apache-2.0
基於 Google Gemma-3-4B-IT 微調的模型,專門用於解決高中階段各類問題
大型語言模型 Transformers 英語
G
kunjshah01
57
2
Light R1 32B DS
Apache-2.0
Light-R1-32B-DS是一款近SOTA水平的32B數學模型,基於DeepSeek-R1-Distill-Qwen-32B微調,僅使用3K SFT數據即實現高性能。
大型語言模型 Transformers
L
qihoo360
1,136
13
EXAONE Deep 2.4B AWQ
其他
EXAONE Deep系列模型在數學和編程等推理任務中表現出色,本模型為24億參數的AWQ量化版本
大型語言模型 Transformers 支持多種語言
E
LGAI-EXAONE
751
16
Qwq Math IO 500M GGUF
Apache-2.0
QwQ-Math-IO-500M是一個專注於數學推理和輸入輸出處理的500M參數語言模型,提供GGUF格式的量化版本。
大型語言模型 英語
Q
tensorblock
56
1
Qwq 32B FP8 Dynamic
MIT
QwQ-32B的FP8量化版本,通過動態量化技術減少50%存儲和內存需求,同時保持99.75%的原模型精度
大型語言模型 Transformers
Q
nm-testing
3,895
3
Qwq 32B FP8 Dynamic
MIT
QwQ-32B的FP8量化版本,通過動態量化技術減少50%存儲和內存需求,同時保持99.75%的原始模型精度
大型語言模型 Transformers
Q
RedHatAI
3,107
8
Sot DistilBERT
MIT
SoT_DistilBERT是基於DistilBERT微調的分類模型,用於根據思維草圖(SoT)框架為給定查詢選擇最佳推理範式。
文本分類 Transformers 英語
S
saytes
20.95k
5
Yulan Mini Instruct
MIT
YuLan-Mini-Instruct是一個24億參數的緊湊但強大的文本生成模型,專注於數學和代碼推理任務,支持中英文。
大型語言模型 Transformers 支持多種語言
Y
yulan-team
97
2
Lucie 7B Instruct V1.1
Apache-2.0
基於Lucie-7B微調的多語言因果語言模型,支持法語和英語,專注於指令跟隨和文本生成任務。
大型語言模型 支持多種語言
L
OpenLLM-France
13.33k
9
Deepseek R1 Distill Qwen 32B Quantized.w8a8
MIT
DeepSeek-R1-Distill-Qwen-32B的INT8量化版本,通過權重量化和激活值量化減少顯存佔用並提升計算效率。
大型語言模型 Transformers
D
neuralmagic
2,324
9
Llama 1B GRPO Final
GSM8K 是一個包含8.5K個高質量小學數學問題的數據集,用於評估模型的數學推理能力。
問答系統 Transformers
L
NickyNicky
437
4
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase