# 数学推論最適化

Deepseek R1 0528 Quantized.w4a16
MIT
量子化処理を施したDeepSeek-R1-0528モデルで、重みをINT4データ型に量子化することで、GPUメモリとディスク容量の要件を大幅に削減します。
大規模言語モデル Safetensors
D
RedHatAI
126
3
Qwen3 30B A3B Quantized.w4a16
Apache-2.0
Qwen3-30B-A3BのINT4量子化バージョン、重み量子化によりディスクとGPUメモリ要件を75%削減し、高性能を維持。
大規模言語モデル Transformers
Q
RedHatAI
379
2
Microsoft Phi 4 Reasoning GGUF
MIT
これはマイクロソフトPhi-4-reasoningモデルの量子化バージョンで、llama.cppを使用して最適化されており、推論タスクに適しており、複数の量子化オプションをサポートしています。
大規模言語モデル
M
bartowski
5,443
4
Tngtech.olmo 2 Instruct Math 32B GGUF
OLMo-2-Instruct-Math-32B は数学タスクに特化した大規模言語モデルで、tngtechによってリリースされました。
大規模言語モデル
T
DevQuasar
272
1
Openmath Nemotron 1.5B
OpenMath-Nemotron-1.5BはQwen2.5-Math-1.5BをOpenMathReasoningデータセットでファインチューニングした数学推論モデルで、複数の数学ベンチマークで最先端の結果を達成しています。
大規模言語モデル Transformers 英語
O
nvidia
493
14
Zero Mistral 24B
MIT
Zero-Mistral-24BはMistral-Small-3.1-24B-Instruct-2503を改良した純粋なテキストモデルで、主にロシア語と英語に適応し、元の視覚機能を削除し、テキスト生成タスクに焦点を当てています。
大規模言語モデル Transformers 複数言語対応
Z
ZeroAgency
41
2
Openmath2 Llama3.1 8B
OpenMath2-Llama3.1-8BはLlama3.1-8B-Baseモデルを基に、OpenMathInstruct-2データセットでファインチューニングされた数学専用モデルで、複数の数学ベンチマークテストで優れた性能を発揮します。
大規模言語モデル Transformers 英語
O
nvidia
930
30
Phi 4 Reasoning Plus
MIT
Phi-4-reasoning-plus はマイクロソフトリサーチが開発した先進的なオープンウェイト推論モデルで、Phi-4を基に教師ありファインチューニングと強化学習で最適化され、数学、科学、コーディング分野の高度な推論能力に特化しています。
大規模言語モデル Transformers 複数言語対応
P
microsoft
19.83k
261
Openrs3 GRPO Ja
OpenRS3-GRPO-jaはSakanaAI/TinySwallow-1.5B-Instructモデルを日本語数学指示データセットでファインチューニングしたバージョンで、GRPO手法を用いてトレーニングされ、数学推論タスクに特化しています。
大規模言語モデル Transformers
O
EQUES
25
3
Olmo 2 Instruct Math 32B
Apache-2.0
OLMo-2-0325-32B-Instructモデルを基に、Open R1数学データセットを使用しAMD MI300X GPU上で微調整され、数学推論能力の向上に特化
大規模言語モデル Transformers 英語
O
tngtech
96
5
Yixin Distill Qwen 72B 4.5bpw H6 Exl2
Apache-2.0
Qwen2.5-72Bをベースに強化学習蒸留を行った高性能数学推論・汎用知識処理モデルで、数学推論と汎用知識タスクで優れた性能を発揮します。
大規模言語モデル 複数言語対応
Y
LoneStriker
37
3
Yixin Distill Qwen 72B
Apache-2.0
数学と汎用推論に最適化された高性能蒸留モデルで、Qwen2.5-72Bを基に強化学習で精製
大規模言語モデル 複数言語対応
Y
YiXin-AILab
38
26
Qwen 2.5 7B Reasoning
MIT
Qwen/Qwen2.5-7B-Instructをファインチューニングしたバージョンで、高度な推論タスクに特化して最適化されています
大規模言語モデル Transformers 英語
Q
HyperX-Sen
70
3
Llama 3.1 Tulu 3.1 8B
Tülu 3は最先端の指示追従モデルファミリーで、完全オープンソースのデータ、コード、トレーニング手法を提供し、現代技術の包括的なガイドとして機能します。バージョン3.1では強化学習フェーズが改善され、性能が全体的に向上しました。
大規模言語モデル Transformers 英語
L
allenai
3,643
33
Glm 4 9b
その他
GLM-4-9Bは智譜AIが発表した最新のオープンソース事前学習モデルで、複数のベンチマークテストにおいてLlama-3-8Bを上回り、128Kのコンテキスト長と26言語をサポートしています。
大規模言語モデル Transformers 複数言語対応
G
THUDM
9,944
132
Seallm 7B V2
その他
SeaLLM-7B-v2は東南アジア言語向けの最先端多言語大規模モデルで、サイズは半分ながら世界知識、数学推論、指示追従などの多言語タスクでより優れた性能を発揮します。
大規模言語モデル Transformers 複数言語対応
S
SeaLLMs
1,993
66
Westseverus 7B DPO V2
Apache-2.0
WestSeverus-7B-DPO-v2はWestSeverus-7Bをベースに訓練された西湖ファミリーモデルで、複数のDPOデータセットで訓練されており、基礎数学問題で優れた性能を発揮します。
大規模言語モデル Transformers 英語
W
PetroGPT
437
8
Neural Chat 7b V3 3
Apache-2.0
Neural-Chat-v3-3はインテルがMistral-7Bアーキテクチャに基づいて開発した70億パラメータの大規模言語モデルで、数学推論とテキスト生成タスクに特化しています。このモデルはMetaMathQAデータセットで微調整され、直接性能最適化(DPO)手法を用いてアライメントされています。
大規模言語モデル Transformers
N
Intel
29.82k
78
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase