# 数学的推論

Chinda Qwen3 4b Gguf
Apache-2.0
チンダLLM 4BはiApp Technologyが開発した最先端のタイ語モデルで、Qwen3-4Bアーキテクチャに基づいて構築され、タイのAIエコシステムに高度な思考能力をもたらします。
大規模言語モデル
C
iapp
115
1
Openr1 Distill 7B
Apache-2.0
OpenR1-Distill-7BはQwen2.5-Math-7BをMixture-of-Thoughtsデータセットでファインチューニングしたバージョンで、言語モデルに段階的な推論を教えることを目的としています。
大規模言語モデル Transformers 英語
O
open-r1
134
6
Thinkless 1.5B RL DeepScaleR
Apache-2.0
Thinklessは強化学習でトレーニングされた大規模言語モデルで、簡潔な回答または長鎖推論モードを適応的に選択でき、推論計算コストを大幅に削減します。
大規模言語モデル Transformers
T
Vinnnf
197
1
Thinkless 1.5B Warmup
Apache-2.0
無思フレームワーク(Thinkless)は学習可能なフレームワークで、大規模モデルがタスクの複雑さと自身の能力に基づいて、短い推論または長い連鎖推論を適応的に選択できるようにします。
大規模言語モデル Transformers
T
Vinnnf
966
1
Ophiuchi Qwen3 14B Instruct
Apache-2.0
Qwen3-14Bアーキテクチャに基づく命令微調整モデルで、数学的推論、コード生成、事実の正確性に特化
大規模言語モデル Transformers 複数言語対応
O
prithivMLmods
21
3
E1 Math 1.5B
E1-Math-1.5BはDeepSeek-R1-Distilled-Qwen-1.5Bを微調整した言語モデルで、弾性推論とGRPO手法をサポートし、予算制約のある推論シナリオに適しています。
大規模言語モデル Transformers
E
Salesforce
295
4
Spec T1 RL 7B
MIT
Spec-T1-RL-7Bは、数学的推論、アルゴリズム問題の解決、コード生成に特化した高精度の大規模言語モデルで、技術ベンチマークテストで卓越した性能を発揮します。
大規模言語モデル Safetensors 英語
S
SVECTOR-CORPORATION
4,626
6
Olmo 2 0425 1B Instruct GGUF
Apache-2.0
OLMo 2 1B命令版はOLMo-2-0425-1B-RLVR1モデルのポストトレーニングバリアントで、教師ありファインチューニング、DPOトレーニング、RLVRトレーニングを経ており、様々なタスクで最先端の性能を実現することを目的としています。
大規模言語モデル 英語
O
unsloth
3,137
3
Phi 4 Mini Reasoning MLX 4bit
MIT
これは、マイクロソフトのPhi-4-mini-reasoningモデルを変換したMLX形式の4ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
P
lmstudio-community
72.19k
2
Phi 4 Reasoning GGUF
MIT
Phi-4-reasoningはPhi-4をファインチューニングした先進的な推論モデルで、教師付きファインチューニングと強化学習により、数学、科学、コーディングなどの分野で卓越した推論能力を発揮します。
大規模言語モデル Transformers
P
unsloth
6,046
7
Deepseek Prover V2 671B
Lean 4形式的定理証明のために設計されたオープンソースの大規模言語モデルで、再帰的定理証明プロセスを通じてデータを収集し、非公式および形式的な数学的推論を統合します。
大規模言語モデル Transformers
D
deepseek-ai
9,693
773
Olmo 2 0425 1B Instruct
Apache-2.0
OLMo 2 1Bはallenai/OLMo-2-0425-1B-RLVR1モデルの後訓練バリアントで、教師あり微調整、DPOトレーニング、RLVRトレーニングを経ており、様々なタスクで最先端の性能を実現することを目的としています。
大規模言語モデル Transformers 英語
O
allenai
5,127
33
Openmath Nemotron 32B
OpenMath-Nemotron-32Bは、OpenMathReasoningデータセットでQwen2.5-32Bをファインチューニングして作成された数学推論モデルで、複数の数学ベンチマークで最先端の結果を達成しました。
大規模言語モデル Transformers 英語
O
nvidia
189
22
Openmath Nemotron 14B
OpenMath-Nemotron-14B は Qwen2.5-14B を OpenMathReasoning データセットでファインチューニングした数学推論モデルで、複数の数学ベンチマークで最先端の結果を達成しています。
大規模言語モデル Transformers 英語
O
nvidia
183
9
Acemath RL Nemotron 7B
その他
深層学習に基づく数学問題自動解決システム、代数、幾何、微積分など様々な数学問題に対応
大規模言語モデル Transformers 英語
A
nvidia
2,990
16
Turkish Gemma 9b V0.1
Turkish-Gemma-9b-v0.1はGemma-2-9bを基に開発されたトルコ語テキスト生成モデルで、継続的な事前学習、教師あり微調整(SFT)、直接選好最適化(DPO)、およびモデル統合技術によって最適化されています。
大規模言語モデル Safetensors
T
ytu-ce-cosmos
167
18
Phi 4 Mini Instruct Float8dq
MIT
Phi-4-mini-instructモデルはtorchaoによるfloat8動的活性化と重みの量子化を経ており、H100上で36%のVRAM削減と15-20%の速度向上を実現し、精度にはほとんど影響を与えません。
大規模言語モデル Transformers その他
P
pytorch
1,006
1
Nova 0.5 E3 7B
Apache-2.0
Nova 0.5 e3は7Bパラメータのテキスト生成モデルで、驚異の創発特性を示し、特に数学的推論において優れた性能を発揮します。
大規模言語モデル Transformers 英語
N
oscar128372
90
2
Reasonflux F1 7B
その他
ReasonFlux-F1-7Bは思考テンプレート拡張に基づく階層型大規模言語モデル推論モデルで、テンプレート強化推論軌跡の微調整により構築され、多くの推論タスクで優れた性能を発揮します。
大規模言語モデル Transformers
R
Gen-Verse
291
2
Thinkedit Deepseek Qwen 14b
その他
ThinkEditは軽量な重み編集手法で、少数のアテンションヘッドを特定・編集することで、大規模言語モデルが推論タスクで過度に短い思考連鎖を生成する問題を緩和し、推論精度を向上させます。
大規模言語モデル Transformers
T
cesun
46
2
Gemma Reasoning Genius
Apache-2.0
Google Gemma-3-4B-ITをベースにファインチューニングされたモデルで、高校段階の様々な問題解決に特化
大規模言語モデル Transformers 英語
G
kunjshah01
57
2
Light R1 32B DS
Apache-2.0
Light-R1-32B-DSはSOTAに近いレベルの32B数学モデルで、DeepSeek-R1-Distill-Qwen-32Bをファインチューニングし、わずか3KのSFTデータで高性能を実現しました。
大規模言語モデル Transformers
L
qihoo360
1,136
13
EXAONE Deep 2.4B AWQ
その他
EXAONE Deepシリーズモデルは数学やプログラミングなどの推論タスクで優れた性能を発揮し、本モデルは24億パラメータのAWQ量子化バージョンです
大規模言語モデル Transformers 複数言語対応
E
LGAI-EXAONE
751
16
Qwq 32B FP8 Dynamic
MIT
QwQ-32BのFP8量子化バージョン、動的量子化技術により50%のストレージとメモリ要件を削減、99.75%の元のモデル精度を維持
大規模言語モデル Transformers
Q
RedHatAI
3,107
8
Qwq 32B FP8 Dynamic
MIT
QwQ-32BのFP8量子化バージョン、動的量子化技術により50%のストレージとメモリ要件を削減、99.75%の元モデル精度を維持
大規模言語モデル Transformers
Q
nm-testing
3,895
3
Sot DistilBERT
MIT
SoT_DistilBERTはDistilBERTをファインチューニングした分類モデルで、思考スケッチ(SoT)フレームワークに基づいて与えられたクエリに最適な推論パラダイムを選択します。
テキスト分類 Transformers 英語
S
saytes
20.95k
5
Lucie 7B Instruct V1.1
Apache-2.0
Lucie-7Bを微調整した多言語因果言語モデルで、フランス語と英語をサポートし、命令追従とテキスト生成タスクに特化しています。
大規模言語モデル 複数言語対応
L
OpenLLM-France
13.33k
9
Deepseek R1 Distill Qwen 32B Quantized.w8a8
MIT
DeepSeek-R1-Distill-Qwen-32BのINT8量子化バージョンで、重み量子化と活性化値量子化によりVRAM使用量を削減し計算効率を向上。
大規模言語モデル Transformers
D
neuralmagic
2,324
9
Acemath 72B Instruct
AceMathは、数学的推論用に設計された一連の最先端モデルで、Qwenをベースに改良され、思考過程(CoT)の推論を用いて英語の数学問題を解くことに長けています。
大規模言語モデル Safetensors 英語
A
nvidia
3,141
18
Gemma 2 9b Neogenesis Ita
VAGOsolutions/SauerkrautLM-gemma-2-9b-itをファインチューニングしたバージョンで、イタリア語のパフォーマンスを最適化し、8kのコンテキスト長をサポートします。
大規模言語モデル Transformers 複数言語対応
G
anakin87
3,029
10
Calmerys 78B Orpo V0.1
MIT
MaziyarPanahi/calme-2.4-rys-78bをベースに、mlabonne/orpo-dpo-mix-40kデータセットで微調整された大規模言語モデルで、Open LLM Leaderboardで1位を獲得しています。
大規模言語モデル Transformers 英語
C
dfurman
353
74
Nanolm 1B Instruct V2
Gpl-3.0
NanoLM-1B-Instruct-v2は400万件以上の高品質な指示データでファインチューニングされた1Bパラメータ規模の小規模モデルで、小規模モデルの可能性を探求することに焦点を当てています。
大規模言語モデル 英語
N
Mxode
45
1
Mathstral 7B V0.1
Apache-2.0
Mathstral 7BはMistral 7Bを基に開発された数学と科学タスクに特化したモデルで、数学的推論と科学的計算タスクで優れた性能を発揮します。
大規模言語モデル Transformers
M
mistralai
35.87k
226
Qwen2 1.5B Ita
Apache-2.0
Qwen2 1.5Bはイタリア語に最適化されたコンパクトな言語モデルで、ITALIA(iGenius)に近い性能を持ちながらサイズは6分の1です。
大規模言語モデル Transformers 複数言語対応
Q
DeepMount00
6,220
21
Internlm2 Math Plus 1 8b
その他
InternLM-Math-Plusは最先端のバイリンガルオープンソース数学推論大規模言語モデルで、求解、証明、検証、強化などの機能を備え、数学推論分野に強力なサポートを提供します。
大規模言語モデル Transformers 複数言語対応
I
internlm
437
11
Yi 1.5 6B Chat
Apache-2.0
Yi-1.5はYiモデルのアップグレード版で、プログラミング、数学、推論、指示追従能力においてより優れたパフォーマンスを発揮し、卓越した言語理解、常識推論、読解力を維持しています。
大規模言語モデル Transformers
Y
01-ai
13.32k
42
Yi 1.5 9B
Apache-2.0
Yi-1.5はYiモデルのアップグレード版で、プログラミング、数学、推論、指示追従能力においてより優れたパフォーマンスを発揮し、優れた言語理解、常識推論、読解力を維持しています。
大規模言語モデル Transformers
Y
01-ai
6,140
48
Yi 1.5 9B Chat
Apache-2.0
Yi-1.5 は Yi モデルのアップグレード版で、プログラミング、数学、推論、指示追従能力において優れたパフォーマンスを発揮し、卓越した言語理解、常識推論、読解力を維持しています。
大規模言語モデル Transformers
Y
01-ai
17.16k
143
Llama 3 Bophades V3 8B
その他
Llama-3-8bを基に構築されたDPOファインチューニングモデルで、真実性と数学的推論能力の向上に焦点を当てています
大規模言語モデル Transformers
L
nbeerbower
44
3
Granite 20b Code Instruct 8k
Apache-2.0
Granite-20B-Code-Instruct-8Kは200億パラメータのコード生成モデルで、Granite-20B-Code-Base-8Kをファインチューニングしたもので、コード生成と命令追従能力に特化しています。
大規模言語モデル Transformers その他
G
ibm-granite
824
40
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase