S

Suzume Llama 3 8B Multilingual Orpo Borda Half

lightblueによって開発
Llama-3-8BをベースにORPO手法でファインチューニングした多言語大規模モデル。50%の最も一貫性のあるランキングデータで訓練され、複数の言語タスクで優れた性能を発揮します。
ダウンロード数 4,625
リリース時間 : 4/25/2024

モデル概要

これはORPO(Odds Ratio Preference Optimization)手法でファインチューニングされた多言語大規模言語モデルで、Llama-3-8Bアーキテクチャをベースに、特に多言語理解と生成能力を最適化しています。

モデル特徴

ORPO最適化トレーニング
Odds Ratio Preference Optimization手法を使用したファインチューニングにより、多言語タスクでのモデル性能が大幅に向上
多言語能力
6つの主要言語(中英仏独日露)で優れた性能を発揮し、一部の言語ではGPT-3.5を上回る
データ精選
50%の最も一貫性のあるランキングデータを使用して訓練し、トレーニング品質を確保
長文脈サポート
8192トークンの長文脈処理をサポート

モデル能力

多言語テキスト生成
多言語質問応答
多言語対話システム
多言語テキスト理解

使用事例

多言語アプリケーション
多言語カスタマーサービスボット
複数言語をサポートするインテリジェントカスタマーサービスシステムの構築
MT-Benchテストでは、ロシア語が最高スコア(8.94点)、中国語7.74点
多言語コンテンツ作成
複数言語のマーケティングコピーや記事などの生成を支援
フランス語とドイツ語のテストでベースモデルを上回る性能
研究応用
ORPO手法研究
異なる割合のトレーニングデータがモデル性能に与える影響の研究
50%データバージョンは複数のテストで優れた性能を示した
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase