A

ALMA 7B R

haoranxuによって開発
ALMA-13B-RはALMA-13B-LoRAを基に、対照選好最適化(CPO)でさらにファインチューニングされた大規模言語モデルで、機械翻訳タスク向けに設計されており、GPT-4やWMT優勝者を凌駕する性能を持つ
ダウンロード数 281
リリース時間 : 1/17/2024

モデル概要

ALMA-13B-Rは機械翻訳に特化した大規模言語モデルで、対照選好最適化手法を用いてファインチューニングされ、高品質な多言語翻訳タスクをサポート

モデル特徴

対照選好最適化(CPO)
従来の教師ありファインチューニングではなく、革新的な対照選好最適化手法を採用
高性能翻訳
翻訳品質においてGPT-4やWMTコンペティション優勝者レベルを達成・超越
LoRAファインチューニング
LoRA(Low-Rank Adaptation)技術を使用した効率的なファインチューニング

モデル能力

高品質機械翻訳
多言語翻訳
テキスト生成

使用事例

機械翻訳
中英翻訳
中国語テキストを英語に翻訳
GPT-4を超える翻訳品質を達成
多言語翻訳
複数言語間の翻訳タスクをサポート
WMTコンペティションデータセットで優れた性能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase