R

Roberta Large Mnli

typeformによって開発
XLM-RoBERTaはRoBERTaアーキテクチャに基づく多言語事前学習モデルで、100言語をサポートし、言語間理解タスクで優れた性能を発揮します。
ダウンロード数 119
リリース時間 : 3/2/2022

モデル概要

XLM-RoBERTaはFacebook AIがRoBERTaアーキテクチャに基づいて開発した多言語事前学習モデルで、大規模な多言語コーパスで訓練され、100言語のテキスト理解と生成タスクをサポートします。

モデル特徴

多言語サポート
100言語のテキスト処理をサポートし、言語間タスクで優れた性能を発揮
大規模事前学習
2.5TBのCommonCrawlデータに基づく事前学習で、複数言語をカバー
ゼロショット学習能力
未見の言語やタスクでも良好な性能を発揮

モデル能力

テキスト分類
系列ラベリング
質問応答システム
テキスト生成
言語間理解
ゼロショット学習

使用事例

コンテンツモデレーション
多言語有害コンテンツ検出
複数言語の有害または不適切なコンテンツを自動識別
複数言語で90%以上の精度を達成
カスタマーサービス
多言語カスタマーサポートシステム
異なる言語の顧客からの問い合わせやリクエストを処理
100言語の自動返信をサポート
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase