R

Roberta Large

FacebookAIによって開発
マスク言語モデリングの目標で事前学習された大型英語言語モデルで、改良されたBERTの学習方法を採用しています。
ダウンロード数 19.4M
リリース時間 : 3/2/2022

モデル概要

RoBERTaは、大量の英語コーパスを用いて自己教師付き学習方式で事前学習されたtransformerモデルで、主にテキスト特徴の抽出と下流タスクの微調整に使用されます。

モデル特徴

動的マスク戦略
BERTとは異なり、動的マスク機構を採用し、各イテレーションで異なるマスクパターンを生成します。
大規模学習データ
160GBのテキストデータを用いて学習し、書籍、ウィキペディア、ニュースなど様々なソースが含まれています。
学習プロセスの最適化
より大きなバッチサイズ(8K)とより長いシーケンス(512)を用いて、50万ステップ学習します。

モデル能力

テキスト特徴抽出
マスクされた単語の予測
下流タスクの微調整

使用事例

自然言語処理
シーケンス分類
感情分析、テキスト分類などのタスクに使用されます。
SST - 2感情分析タスクで96.4点を達成しました。
質問応答システム
質問応答システムの基礎モデルとして使用されます。
QNLIタスクで94.7点を達成しました。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase