# 數學推理優化

Unireason Qwen3 14B RL GGUF
Apache-2.0
UniReason-Qwen3-14B-RL的靜態量化版本,適用於文本生成和數學推理研究場景。
大型語言模型 Transformers 英語
U
mradermacher
272
1
Deepseek R1 0528 Quantized.w4a16
MIT
經過量化處理的DeepSeek-R1-0528模型,通過將權重量化為INT4數據類型,顯著降低了GPU內存和磁盤空間的需求。
大型語言模型 Safetensors
D
RedHatAI
126
3
Mimo 7B RL 0530
MIT
MiMo是一系列專為推理任務從頭訓練的7B參數模型,通過優化預訓練和後訓練策略,在數學和代碼推理任務上表現出色。
大型語言模型 Transformers
M
XiaomiMiMo
319
17
ALP DeepScaleR 1.5B C16K
Apache-2.0
ALP_DeepScaleR_1.5B_C16K是基於DeepScaleR-1.5B模型,採用自適應長度懲罰(ALP)方法進行訓練的模型,能在保持性能的同時顯著減少token使用量。
大型語言模型 Safetensors
A
SynthLabsAI
333
1
Seallm 7B V2
其他
SeaLLM-7B-v2是面向東南亞語言的最先進多語言大模型,體積減半但在世界知識、數學推理、指令遵循等多語言任務上表現更優。
大型語言模型 Transformers 支持多種語言
S
SeaLLMs
1,993
66
Multiverse 32B
Apache-2.0
Multiverse-32B是基於Multiverse構建的首個開源、非自迴歸模型,在AIME測試中表現優異,具有重要的學術和應用價值。
大型語言模型 Transformers
M
Multiverse4FM
11.03k
1
Qwen3 30B A3B Quantized.w4a16
Apache-2.0
Qwen3-30B-A3B的INT4量化版本,通過權重量化減少75%的磁盤和GPU內存需求,保持高性能。
大型語言模型 Transformers
Q
RedHatAI
379
2
Phi 4 Mini Reasoning GGUF
MIT
Phi-4-mini-reasoning 是一個基於合成數據構建的輕量級開放模型,專注於高質量、富含推理的數據,並針對更高級的數學推理能力進行了進一步微調。
大型語言模型 Transformers
P
Mungert
3,592
3
Phi 4 Reasoning Unsloth Bnb 4bit
MIT
Phi-4-reasoning是一款由微軟開發的先進推理模型,基於Phi-4進行微調,專注於提升數學、科學和編碼等領域的推理能力。
大型語言模型 Transformers 支持多種語言
P
unsloth
1,969
2
Phi 4 Reasoning Plus GGUF
MIT
Phi-4-reasoning-plus 是由微軟研究院開發的開源推理模型,專注於數學、科學和編程領域的高級推理能力。
大型語言模型 支持多種語言
P
unsloth
109.62k
47
Phi 4 Mini Reasoning Unsloth Bnb 4bit
MIT
Phi-4-mini-reasoning是一個輕量級的開源模型,專注於數學推理,支持128K令牌的上下文長度,適用於計算資源受限的環境。
大型語言模型 Transformers 支持多種語言
P
unsloth
2,329
5
Microsoft Phi 4 Reasoning GGUF
MIT
這是微軟Phi-4-reasoning模型的量化版本,使用llama.cpp進行優化,適用於推理任務,支持多種量化選項。
大型語言模型
M
bartowski
5,443
4
Microsoft Phi 4 Mini Reasoning GGUF
MIT
這是微軟Phi-4-mini-reasoning模型的量化版本,使用llamacpp工具進行量化處理,旨在提升模型在不同硬件環境下的運行效率和性能。
大型語言模型 支持多種語言
M
bartowski
1,667
7
Mimo 7B SFT
MIT
MiMo-7B-RL是基於MiMo-7B-SFT模型訓練的強化學習模型,在數學與代碼推理任務上達到與OpenAI o1-mini比肩的性能。
大型語言模型 Transformers
M
XiaomiMiMo
1,183
23
Qwen3 0.6B GGUF
通義千問3 0.6B的量化版本,適用於文本生成任務,支持32k上下文長度和多語言處理。
大型語言模型
Q
lmstudio-community
9,063
5
Nvidia OpenMath Nemotron 14B Kaggle GGUF
這是NVIDIA開源的14B參數數學大語言模型,經過llama.cpp量化處理,可在不同硬件條件下高效運行。
大型語言模型 英語
N
bartowski
432
1
Tngtech.olmo 2 Instruct Math 32B GGUF
OLMo-2-Instruct-Math-32B 是一個專注於數學任務的大型語言模型,由 tngtech 發佈。
大型語言模型
T
DevQuasar
272
1
Openmath Nemotron 1.5B
OpenMath-Nemotron-1.5B是基於Qwen2.5-Math-1.5B在OpenMathReasoning數據集上微調的數學推理模型,在多個數學基準測試中取得最先進結果。
大型語言模型 Transformers 英語
O
nvidia
493
14
Zero Mistral 24B
MIT
Zero-Mistral-24B是基於Mistral-Small-3.1-24B-Instruct-2503改進的純文本模型,主要適配俄語和英語,移除了原版的視覺功能,專注於文本生成任務。
大型語言模型 Transformers 支持多種語言
Z
ZeroAgency
41
2
Openmath2 Llama3.1 8B
OpenMath2-Llama3.1-8B 是基於 Llama3.1-8B-Base 模型,使用 OpenMathInstruct-2 數據集微調而成的數學專用模型,在多個數學基準測試中表現優異。
大型語言模型 Transformers 英語
O
nvidia
930
30
Viper Coder V1.7 Vsm6
Apache-2.0
Viper-Coder-v1.7-Vsm6是基於千問2.5 14B模態架構設計的大語言模型,專注於提升編碼效率和計算推理能力,優化內存使用並減少冗餘文本生成。
大型語言模型 Transformers 支持多種語言
V
prithivMLmods
491
5
Phi 4 Reasoning Plus
MIT
Phi-4-reasoning-plus 是微軟研究院開發的先進開放權重推理模型,基於 Phi-4 通過監督微調和強化學習優化,專注於數學、科學和編碼領域的高級推理能力。
大型語言模型 Transformers 支持多種語言
P
microsoft
19.83k
261
EZO2.5 Gemma 3 12b It Preview
基於google/gemma-3-12b-it模型,通過EZO訓練方法提升日語性能的文本生成模型
大型語言模型 Transformers 日語
E
AXCXEPT
39
1
Notbad V1 1 Mistral 24b
Apache-2.0
專注於數學推理和Python編程訓練的24B參數大語言模型,基於Mistral架構優化
大型語言模型 Transformers
N
notbadai
34
4
Openrs3 GRPO Ja
OpenRS3-GRPO-ja是基於SakanaAI/TinySwallow-1.5B-Instruct模型在日語數學指令數據集上微調的版本,採用GRPO方法訓練,專注於數學推理任務。
大型語言模型 Transformers
O
EQUES
25
3
Notbad V1 0 Mistral 24b
Apache-2.0
Notbad v1.0 Mistral 24B 是一款專注於數學和Python編程推理的模型,基於Mistral-Small-24B-Instruct-2501並通過強化學習進一步訓練。
大型語言模型 Transformers
N
notbadai
29
5
EXAONE Deep 7.8B GGUF
其他
EXAONE Deep系列模型在數學和編程等推理任務中表現出色,7.8B版本優於同規模開源模型,甚至超越某些專有模型。
大型語言模型 支持多種語言
E
QuantFactory
297
3
Olmo 2 Instruct Math 32B
Apache-2.0
基於OLMo-2-0325-32B-Instruct模型,使用Open R1數學數據集在AMD MI300X GPU上微調,專注提升數學推理能力
大型語言模型 Transformers 英語
O
tngtech
96
5
Fastcurl 1.5B Preview
MIT
FastCuRL-1.5B-Preview 是一個慢思考推理模型,採用課程引導迭代延長強化學習方法,在數學推理任務上表現優異。
大型語言模型 Transformers 英語
F
Nickyang
779
7
Yixin Distill Qwen 72B 4.5bpw H6 Exl2
Apache-2.0
基於Qwen2.5-72B通過強化學習蒸餾的高性能數學推理與通用知識處理模型,在數學推理和通用知識任務中表現優異。
大型語言模型 支持多種語言
Y
LoneStriker
37
3
Gemma 3 4b Reasoning
Apache-2.0
Gemma-3-4b推理是基於Transformer架構的語言模型,採用GRPO方法微調,專注於推理任務優化。
大型語言模型 Transformers 英語
G
ericrisco
53
2
Yixin Distill Qwen 72B
Apache-2.0
專為數學與通用推理優化的高性能蒸餾模型,基於Qwen2.5-72B通過強化學習提煉而成
大型語言模型 支持多種語言
Y
YiXin-AILab
38
26
Qwen 2.5 7B Reasoning
MIT
基於Qwen/Qwen2.5-7B-Instruct微調的版本,專門針對高級推理任務進行了優化
大型語言模型 Transformers 英語
Q
HyperX-Sen
70
3
Sombrero Opus 14B Sm5
Apache-2.0
基於Qwen 2.5 14B模態架構設計,提升編碼效率和計算推理能力的模型
大型語言模型 Transformers 支持多種語言
S
prithivMLmods
43
2
Tinyr1 32B Preview
Apache-2.0
Tiny-R1-32B-Preview 是一個基於 Deepseek-R1-Distill-Qwen-32B 的推理模型,專注於數學、代碼和科學領域,性能接近完整版 R1 模型。
大型語言模型 Transformers
T
qihoo360
3,292
327
Fluentlylm Prinum
MIT
流暢語言模型項目的首個獨立模型,32.5B參數量的因果語言模型,支持多種語言和任務。
大型語言模型 Transformers 支持多種語言
F
fluently-lm
241
28
Mistral Small 24B Instruct 2501 Reasoning
Apache-2.0
基於Mistral-Small-24B-Instruct-2501微調的數學推理模型,優化了數學推理能力
大型語言模型 英語
M
yentinglin
1,689
54
Llama 3.1 Tulu 3.1 8B
Tülu 3 是領先的指令跟隨模型家族,提供完全開源的數據、代碼和訓練方案作為現代技術的綜合指南。3.1版本在強化學習階段進行了改進,性能全面提升。
大型語言模型 Transformers 英語
L
allenai
3,643
33
Sky T1 32B Flash
Apache-2.0
基於Sky-T1-32B-Preview優化的32B推理模型偏好版本,能在保持準確性的同時顯著縮短生成長度。
大型語言模型 Transformers 英語
S
NovaSky-AI
557
64
Internlm3 8b Instruct Gguf
Apache-2.0
InternLM3-8B-Instruct 模型的 GGUF 格式版本,適用於 llama.cpp 框架,支持多種量化版本。
大型語言模型 英語
I
internlm
1,072
26
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase