X

Xlm Roberta Base

FacebookAIによって開発
XLM - RoBERTaは、100言語の2.5TBのフィルタリングされたCommonCrawlデータを使って事前学習された多言語モデルで、マスク言語モデリングの目標で学習されています。
ダウンロード数 9.6M
リリース時間 : 3/2/2022

モデル概要

XLM - RoBERTaはRoBERTaの多言語バージョンで、100言語をサポートし、主にテキスト特徴抽出と下流タスクの微調整に使用されます。

モデル特徴

多言語サポート
100言語をサポートし、多言語テキスト処理タスクに適しています。
大規模事前学習
2.5TBのフィルタリングされたCommonCrawlデータを使って事前学習され、強力な言語表現能力を持っています。
マスク言語モデリング
マスク言語モデリングの目標で学習され、文の双方向表現を学習することができます。

モデル能力

テキスト特徴抽出
マスク言語モデリング
多言語テキスト処理
下流タスクの微調整

使用事例

自然言語処理
シーケンス分類
感情分析、テキスト分類などのタスクに使用できます。
タグ分類
固有表現抽出(NER)などのタスクに適しています。
質問応答システム
多言語質問応答システムの構築に使用できます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase