M

Mbart Large Cc25

facebookによって開発
mbart-large-cc25はFacebookが開発した多言語事前学習シーケンス・ツー・シーケンスモデルで、25言語間の翻訳タスクをサポートします
ダウンロード数 15.92k
リリース時間 : 3/2/2022

モデル概要

Transformerアーキテクチャに基づく多言語機械翻訳モデルで、複数の言語ペアの翻訳タスクに適しており、テキスト要約にも微調整可能です

モデル特徴

多言語サポート
25言語間の翻訳タスクをサポートし、ヨーロッパやアジアなど多様な言語をカバーします
事前学習モデル
大量の多言語データで事前学習済みで、下流タスクに直接使用したり、さらに微調整したりできます
シーケンス・ツー・シーケンスアーキテクチャ
Transformerベースのエンコーダー・デコーダー構造で、シーケンス生成タスクの処理に適しています

モデル能力

機械翻訳
テキスト要約
多言語テキスト生成

使用事例

言語サービス
多言語ドキュメント翻訳
ビジネス文書や技術文書などを異なる言語間で翻訳します
ニュース要約生成
多言語のニュースコンテンツを自動要約します
教育
言語学習支援
言語学習者に翻訳支援を提供します
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase