R

Roberta Large

Developed by FacebookAI
マスク言語モデリングの目標で事前学習された大型英語言語モデルで、改良されたBERTの学習方法を採用しています。
Downloads 19.4M
Release Time : 3/2/2022

Model Overview

RoBERTaは、大量の英語コーパスを用いて自己教師付き学習方式で事前学習されたtransformerモデルで、主にテキスト特徴の抽出と下流タスクの微調整に使用されます。

Model Features

動的マスク戦略
BERTとは異なり、動的マスク機構を採用し、各イテレーションで異なるマスクパターンを生成します。
大規模学習データ
160GBのテキストデータを用いて学習し、書籍、ウィキペディア、ニュースなど様々なソースが含まれています。
学習プロセスの最適化
より大きなバッチサイズ(8K)とより長いシーケンス(512)を用いて、50万ステップ学習します。

Model Capabilities

テキスト特徴抽出
マスクされた単語の予測
下流タスクの微調整

Use Cases

自然言語処理
シーケンス分類
感情分析、テキスト分類などのタスクに使用されます。
SST - 2感情分析タスクで96.4点を達成しました。
質問応答システム
質問応答システムの基礎モデルとして使用されます。
QNLIタスクで94.7点を達成しました。
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase