S

SOLAR Math 2x10.7b V0.2

macadelicccによって開発
2つのSolar-10.7B命令微調整モデルを統合した大規模言語モデルで、GPT-3.5やGemini Proと同等の性能を持ち、Mixtral-8x7bを上回る
ダウンロード数 92
リリース時間 : 1/16/2024

モデル概要

SOLAR-math-2x10.7b-v0.2は数学推論とテキスト生成タスクに特化した高性能な大規模言語モデルです。2つのSolar-10.7B命令微調整モデルを統合することで性能を強化し、複数のベンチマークテストで優れた結果を示しています。

モデル特徴

高性能数学推論
数学推論タスク(GSM8kなど)で優れた性能を発揮し、64.9%の精度を達成
マルチタスク処理能力
複数のベンチマークテスト(ARC、HellaSwag、MMLUなど)でバランスの取れた性能
モデル統合アーキテクチャ
2つのSolar-10.7Bモデルを統合することで性能向上を実現

モデル能力

数学問題解答
常識推論
テキスト生成
多肢選択問題解答
言語理解

使用事例

教育
数学問題解答
複雑な定理証明を含む様々な数学問題を解答
GSM8kテストセットで64.9%の精度を達成
科学知識解説
複雑な科学的概念や理論を解説
MMLUテストセットで66.25%の精度を達成
研究
学術文献分析
研究者が学術文献を理解・分析するのを支援
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase