X

Xlm Roberta Xl

facebookによって開発
XLM-RoBERTa-XLは2.5TBの精選されたCommonCrawlデータで事前学習された多言語モデルで、100言語をカバーしています。
ダウンロード数 53.53k
リリース時間 : 3/2/2022

モデル概要

XLM-RoBERTa-XLはRoBERTaの超大型多言語版で、マスク言語モデリング(MLM)目標を用いて事前学習され、主に下流タスクのファインチューニングに使用されます。

モデル特徴

多言語サポート
100言語の事前学習とファインチューニングをサポート
大規模事前学習
2.5TBの精選されたCommonCrawlデータに基づく事前学習
マスク言語モデリング
MLM目標を用いた事前学習で、マスクされた単語を予測可能

モデル能力

多言語テキスト理解
マスク言語予測
下流タスクのファインチューニング

使用事例

自然言語処理
シーケンス分類
テキスト分類タスクに使用可能
トークン分類
固有表現認識などのタスクに適しています
質問応答システム
多言語質問応答システムの構築に使用可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase