X

Xlm Roberta Xxl

Developed by facebook
XLM-RoBERTa-XLは、100言語を含む2.5TBのフィルタリングされたCommonCrawlデータで事前学習された多言語モデルで、RoBERTaアーキテクチャの超大規模バージョンです。
Downloads 13.19k
Release Time : 3/2/2022

Model Overview

このモデルはマスク言語モデリング(MLM)目標を用いて100言語で事前学習されており、主にテキスト特徴抽出と下流タスクのファインチューニングに使用されます。

Model Features

多言語サポート
100言語の事前学習と特徴抽出をサポート
大規模事前学習
2.5TBのフィルタリングされたCommonCrawlデータに基づく事前学習
RoBERTaアーキテクチャ
改良されたRoBERTaアーキテクチャを採用し、学習プロセスを最適化

Model Capabilities

マスク言語モデリング
多言語テキスト特徴抽出
下流タスクのファインチューニング

Use Cases

自然言語処理
シーケンス分類
感情分析などのテキスト分類タスクに使用可能
トークン分類
固有表現認識などのタスクに適している
質問応答システム
多言語質問応答システムの構築に使用可能
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase