F

Fathom R1 14B

FractalAIResearchによって開発
499ドルのトレーニングコストで実現した14Bパラメータの数学推論モデル、16Kコンテキストウィンドウでクローズドソースo4-miniに匹敵する性能
ダウンロード数 2,112
リリース時間 : 5/13/2025

モデル概要

Deepseek-R1-Distilled-Qwen-14Bベースの140億パラメータ推論モデル、革新的なトレーニング方法により16Kコンテキスト制限内でSOTA数学推論能力を実現

モデル特徴

低コスト高効率トレーニング
わずか499ドルのトレーニングコストでクローズドソースo4-miniに匹敵する性能を実現
16Kコンテキスト制限
厳格な16Kコンテキストウィンドウで最適な性能を発揮、過剰な推論チェーンの信頼性問題を回避
反復カリキュラム学習
多段階のカリキュラム学習戦略により、様々な難易度の数学問題に対するモデルの性能を段階的に向上
推論チェーン圧縮
RLトレーニングにより、より簡潔で効果的な推論ステップを生成

モデル能力

高度な数学推論
数学オリンピック問題解決
複雑な問題の段階的解答
分野横断的知識応用

使用事例

教育
数学オリンピック指導
AIME/HMMTなどの数学競技会の問題解答と指導に使用
AIME2025で52.71% Pass@1精度を達成
数学教育支援
学生が複雑な数学概念を段階的に理解するのを支援
研究
推論モデル研究
低コスト高効率推論モデルのベンチマーク研究対象として
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase