U

Umt5 Xxl

googleによって開発
UMT5はmC4多言語コーパスで事前学習された多言語テキスト生成モデルで、107言語をサポートし、UniMaxサンプリング戦略により言語バランスを最適化
ダウンロード数 4,449
リリース時間 : 7/2/2023

モデル概要

T5アーキテクチャに基づく多言語事前学習モデルで、言語間テキスト生成タスクに特化しており、下流タスク用にファインチューニングが必要

モデル特徴

UniMaxサンプリング戦略
言語繰り返し上限を設定することでより公平な言語分布を実現し、低頻度言語の過学習を防止
大規模多言語サポート
107言語をカバーし、主要言語と低リソース言語を含む
改良版mC4コーパス
29兆文字の多言語事前学習データに基づく

モデル能力

多言語テキスト生成
言語間転移学習
テキスト要約
機械翻訳

使用事例

自然言語処理
多言語機械翻訳
ファインチューニングにより低リソース言語の翻訳タスクを実現
言語間テキスト要約
複数言語のテキスト要約生成をサポート
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase