S

SOLAR 10.7B Instruct V1.0

upstageによって開発
SOLAR-10.7Bは107億のパラメータを持つ高度な大規模言語モデルで、自然言語処理タスクで優れた性能を発揮し、300億以下のパラメータ規模のモデルの中でトップクラスの性能を誇ります。
ダウンロード数 58.99k
リリース時間 : 12/12/2023

モデル概要

SOLAR-10.7Bは、深層上方拡張(DUS)手法に基づいて構築された大規模言語モデルで、命令微調整により単一ターン対話能力を最適化しています。

モデル特徴

深層上方拡張技術
革新的な深層上方拡張手法を採用し、Mistral 7Bの重みを統合して継続的な事前学習を行い、モデル性能を大幅に向上させています。
効率的なパラメータ利用
わずか107億パラメータでありながら、多くの大規模モデルを凌駕し、300億パラメータ以下のモデルの中で卓越した性能を示します。
先進的な命令微調整
SFTとDPO手法を組み合わせた命令微調整を行い、高品質なデータセットを使用してモデルの応答能力を最適化しています。
データ汚染制御
トレーニングデータを厳選し、モデルがベンチマークデータに汚染されていないことを保証し、評価結果の信頼性を維持しています。

モデル能力

テキスト生成
単一ターン対話
自然言語理解
命令追従

使用事例

対話システム
単一ターン質問応答
ユーザーからの単一ターンの質問に回答する
正確で役立つ回答を提供する
コンテンツ生成
テキスト作成
プロンプトに基づいて一貫性のあるテキストコンテンツを生成する
文脈に合った自然言語テキストを生成する
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase