# 数学推論の最適化

Phi 4 Reasoning Plus GGUF
MIT
Phi-4-reasoning-plusはマイクロソフトリサーチによって開発されたオープンソースの推論モデルで、数学、科学、プログラミング分野の高度な推論能力に特化しています。
大規模言語モデル 複数言語対応
P
unsloth
109.62k
47
Mimo 7B SFT
MIT
MiMo-7B-RLはMiMo-7B-SFTモデルを基に強化学習でトレーニングされたモデルで、数学とコード推論タスクにおいてOpenAI o1-miniと肩を並べる性能を発揮します。
大規模言語モデル Transformers
M
XiaomiMiMo
1,183
23
Notbad V1 1 Mistral 24b
Apache-2.0
数学推論とPythonプログラミング訓練に特化した24Bパラメータの大規模言語モデル、Mistralアーキテクチャを基に最適化
大規模言語モデル Transformers
N
notbadai
34
4
Notbad V1 0 Mistral 24b
Apache-2.0
Notbad v1.0 Mistral 24Bは、数学とPythonプログラミング推論に特化したモデルで、Mistral-Small-24B-Instruct-2501をベースに強化学習でさらに訓練されています。
大規模言語モデル Transformers
N
notbadai
29
5
EXAONE Deep 7.8B GGUF
その他
EXAONE Deepシリーズのモデルは、数学やプログラミングなどの推論タスクで優れた性能を発揮し、7.8Bバージョンは同規模のオープンソースモデルを上回り、一部のプロプライエタリモデルをも凌駕しています。
大規模言語モデル 複数言語対応
E
QuantFactory
297
3
Fastcurl 1.5B Preview
MIT
FastCuRL-1.5B-Preview は、スローシンキング推論モデルで、カリキュラム誘導反復延長強化学習手法を採用し、数学推論タスクで優れた性能を発揮します。
大規模言語モデル Transformers 英語
F
Nickyang
779
7
Gemma 3 4b Reasoning
Apache-2.0
Gemma-3-4b推論はTransformerアーキテクチャに基づく言語モデルで、GRPO手法を用いてファインチューニングされ、推論タスクの最適化に特化しています。
大規模言語モデル Transformers 英語
G
ericrisco
53
2
Tinyr1 32B Preview
Apache-2.0
Tiny-R1-32B-PreviewはDeepseek-R1-Distill-Qwen-32Bを基にした推論モデルで、数学、コード、科学分野に特化しており、性能はフルバージョンのR1モデルに近いです。
大規模言語モデル Transformers
T
qihoo360
3,292
327
Mistral Small 24B Instruct 2501 Reasoning
Apache-2.0
Mistral-Small-24B-Instruct-2501を微調整した数学推論モデルで、数学推論能力が最適化されています
大規模言語モデル 英語
M
yentinglin
1,689
54
Sky T1 32B Flash
Apache-2.0
Sky-T1-32B-Previewを基に最適化された32B推論モデルの好みバージョンで、正確性を維持しながら生成長を大幅に短縮できます。
大規模言語モデル Transformers 英語
S
NovaSky-AI
557
64
Internlm3 8b Instruct Gguf
Apache-2.0
InternLM3-8B-Instruct モデルの GGUF フォーマット版で、llama.cpp フレームワークに対応し、複数の量子化バージョンをサポートしています。
大規模言語モデル 英語
I
internlm
1,072
26
UNA SimpleSmaug 34b V1beta
Apache-2.0
Smaug-34Bをベースにした教師あり微調整モデルで、数学と推論能力の向上に焦点を当て、34B規模のモデルの中で優れた性能を発揮します。
大規模言語モデル Transformers
U
fblgit
18
21
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase