U

Umt5 Small

googleによって開発
mC4多言語コーパスに基づく事前学習済みの統一多言語T5モデルで、107言語をカバー
ダウンロード数 17.35k
リリース時間 : 7/2/2023

モデル概要

UMT5はGoogleが開発した多言語テキスト生成モデルで、UniMaxサンプリング戦略により言語分布を最適化し、言語間自然言語処理タスクに適しています。使用にはファインチューニングが必要です。

モデル特徴

UniMaxサンプリング戦略
コーパスの繰り返し回数を制限することで言語分布を最適化し、主要言語/少数言語のカバレッジをバランス
多言語サポート
低リソース言語を含む107言語をカバー
大規模事前学習
29兆文字のmC4多言語コーパスに基づく

モデル能力

多言語テキスト生成
言語間転移学習
ゼロショット学習(ファインチューニング必要)

使用事例

自然言語処理
機械翻訳
ファインチューニングにより言語間テキスト変換を実現
多言語質問応答システム
多言語対応のインテリジェントQAアプリケーション構築
コンテンツ生成
多言語コンテンツ作成
異なる言語のマーケティングコピー/ニュース要約を生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase