M

Mgpt

THUMTによって開発
mGPTはmC4データセットで事前学習された多言語生成モデルで、101言語をサポートし、GPT-2に似たTransformerアーキテクチャを採用しています。
ダウンロード数 147
リリース時間 : 3/2/2022

モデル概要

mGPTはTransformerアーキテクチャに基づく多言語生成モデルで、101言語のmC4データセットで因果言語モデリング目標を用いて事前学習されています。テキスト生成やプロンプトベースの下流タスク適応に適しています。

モデル特徴

多言語サポート
101言語をカバーする事前学習で、幅広い言語対応能力を有する
教師なし事前学習
生のテキストのみを使用して学習し、人手による注釈データを必要としない
共有トークナイザー
mT5と同じトークナイザーと語彙を使用し、複数モデルの連携が容易

モデル能力

多言語テキスト生成
プロンプトベースタスク適応
長文生成(最大1024トークン)

使用事例

テキスト生成
多言語コンテンツ作成
異なる言語で一貫性のあるテキストコンテンツを生成
下流タスク適応
プロンプトベースタスク実行
プロンプト設計により様々なNLPタスクに適応
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase