# 数学推論

Phi 4 Mini Reasoning GGUF
MIT
Phi-4-mini-reasoningは合成データに基づく軽量オープンモデルで、高品質で密度の高い推論データに焦点を当て、数学的推論能力を強化するためにさらに微調整されています。
大規模言語モデル 複数言語対応
P
unsloth
21.71k
27
Phi 4 Mini Reasoning
MIT
Phi-4-mini-reasoning は軽量なオープンソースモデルで、数学推論タスクに特化しており、128Kトークンのコンテキスト長をサポートします。
大規模言語モデル Transformers
P
unsloth
591
2
Phi 4 Mini Reasoning
MIT
Phi-4-mini-reasoningは、高品質で推論が密集したデータに焦点を当てた軽量のオープンソースモデルで、さらに微調整されてより高度な数学推論能力を獲得しています。
大規模言語モデル Transformers 複数言語対応
P
microsoft
18.93k
152
Openmath Nemotron 14B Kaggle
Qwen2.5-14Bをファインチューニングした数学推論モデルで、AIMO-2 Kaggleコンペティションで1位を獲得
大規模言語モデル Transformers 英語
O
nvidia
66
11
Openmath Nemotron 7B
OpenMath-Nemotron-7B は Qwen2.5-Math-7B を OpenMathReasoning データセットでファインチューニングした数学推論モデルで、複数の数学ベンチマークで最先端の結果を達成しています。
大規模言語モデル Transformers 英語
O
nvidia
153
6
La Superba 14B Y.2
Apache-2.0
Qwen 2.5 14Bアーキテクチャに基づいて構築された次世代言語モデルで、数学推論、プログラミング、一般的な論理タスクに最適化されています。
大規模言語モデル Transformers 複数言語対応
L
prithivMLmods
19
2
Phi 4 Reasoning
MIT
Phi-4推論はPhi-4を基に、教師あり微調整の思考連鎖軌跡データセットと強化学習で訓練された最先端のオープンウェイト推論モデルで、数学、科学、プログラミングスキルに特化しています。
大規模言語モデル Transformers 複数言語対応
P
microsoft
11.31k
172
Deepseek R1 14b Cot Math Reasoning Full GGUF
MIT
140億パラメータ規模の数学推論大規模言語モデル、思考連鎖推論をサポート
大規模言語モデル
D
tensorblock
838
2
Qwq Math IO 500M GGUF
Apache-2.0
QwQ-Math-IO-500Mは数学推論と入出力処理に特化した500Mパラメータの言語モデルで、GGUF形式の量子化バージョンを提供します。
大規模言語モデル 英語
Q
tensorblock
56
1
Yulan Mini Instruct
MIT
YuLan-Mini-Instructは24億パラメータのコンパクトながら強力なテキスト生成モデルで、数学とコード推論タスクに特化しており、中英語をサポートしています。
大規模言語モデル Transformers 複数言語対応
Y
yulan-team
97
2
Llama 1B GRPO Final
GSM8Kは、モデルの数学推論能力を評価するための8.5Kの高品質な小学校算数問題を含むデータセットです。
質問応答システム Transformers
L
NickyNicky
437
4
Acemath 7B Instruct
AceMath-7B-InstructはNVIDIAが数学推論専用に設計した指導モデルで、改良版Qwenアーキテクチャに基づいて開発され、思考連鎖(CoT)推論を通じて英語の数学問題を解決するのに優れています。
大規模言語モデル 英語
A
nvidia
1,454
22
Internlm2 Math Plus 7b
その他
InternLM-Math-Plus は最先端のバイリンガルオープンソース数学推論大規模言語モデルで、問題解決、証明、検証、拡張能力を備えています。
大規模言語モデル Transformers 複数言語対応
I
internlm
164
11
Neural 4 Maths 7b
Apache-2.0
神経4数学-7bは、複数の7BパラメータモデルをLazyMergeKitで統合した数学特化モデルで、数学関連タスクに特化しています。
大規模言語モデル Transformers
N
Kukedlc
22
1
Openmath Mistral 7B V0.1 Hf
Apache-2.0
OpenMathモデルはテキスト推論とPythonインタプリタ実行のコードブロックを組み合わせて数学問題を解決し、Mistral-7B-v0.1を微調整したものです
大規模言語モデル Transformers 複数言語対応
O
nvidia
22
31
Tora Code 13b V1.0
ToRA-7Bは7Bパラメータのツール統合推論エージェントで、数学問題解決のために設計され、自然言語推論と外部ツールの使用を組み合わせています。
大規模言語モデル Transformers 複数言語対応
T
llm-agents
128
15
Mathcoder CL 7B
Apache-2.0
MathCoderシリーズのオープンソース大規模言語モデル。汎用数学問題解決のために設計され、Llama-2をファインチューニング
大規模言語モデル Transformers 英語
M
MathLLMs
74
18
Mathcoder L 7B
Apache-2.0
MathCoderシリーズのオープンソース大規模言語モデルで、一般的な数学問題解決のために特別に設計されており、Llama-2とCode Llamaを基にファインチューニングされています。
大規模言語モデル Transformers 英語
M
MathLLMs
127
18
Llemma 7b
Llemma 34Bは数学分野に特化した言語モデルで、Code Llama 34Bの重みを初期値としてProof-Pile-2データセットで訓練されました。
大規模言語モデル Transformers 英語
L
EleutherAI
3,668
106
Wizardmath 70B V1.0
WizardMath-7B-V1.1はMistral-7Bをベースに訓練された大規模言語モデルで、数学推論能力に特化しており、強化進化指令(RLEIF)手法を用いて性能を向上させ、現在の7B規模数学モデルの中で最高の性能を発揮します。
大規模言語モデル Transformers
W
WizardLMTeam
153
119
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase