M

Mgpt

由THUMT開發
mGPT是基於mC4數據集預訓練的多語言生成模型,支持101種語言,採用類似GPT-2的Transformer架構。
下載量 147
發布時間 : 3/2/2022

模型概述

mGPT是一個基於Transformer架構的多語言生成模型,通過因果語言建模目標在101種語言的mC4數據集上預訓練。適用於文本生成和提示式下游任務適配。

模型特點

多語言支持
預訓練涵蓋101種語言,具有廣泛的語言覆蓋能力
無監督預訓練
僅使用原始文本進行訓練,無需人工標註數據
共享分詞器
採用與mT5相同的分詞器和詞彙表,便於多模型協作

模型能力

多語言文本生成
提示式任務適配
長文本生成(最大1024 token)

使用案例

文本生成
多語言內容創作
生成不同語言的連貫文本內容
下游任務適配
提示式任務執行
通過設計提示詞(prompt)適配各類NLP任務
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase