R

Roberta Base

FacebookAIによって開発
Transformerアーキテクチャに基づく英語の事前学習モデルで、マスク言語モデリングの目標を通じて大量のテキストでトレーニングされ、テキスト特徴抽出と下流タスクの微調整をサポートします。
ダウンロード数 9.3M
リリース時間 : 3/2/2022

モデル概要

動的マスキング戦略を採用した双方向Transformerモデルで、BERTの事前学習方法を最適化し、シーケンス分類、タグ分類などのNLPタスクに適しています。

モデル特徴

動的マスキング戦略
より効率的な動的マスキング方式を採用し、静的マスキングに比べてより包括的なコンテキスト表現を学習できます。
大規模トレーニングデータ
5つのデータセットを融合して合計160GBのテキストを含み、書籍、ニュース、百科事典などの様々な文体をカバーしています。
最適化されたトレーニング設定
8Kのバッチサイズと512のシーケンス長を使用して500Kステップのトレーニングを行い、Adamオプティマイザと学習率のウォームアップ戦略を採用しています。

モデル能力

テキスト特徴抽出
マスク言語予測
シーケンス分類
タグ分類
質問応答タスク

使用事例

テキスト理解
感情分析
レビュー/ツイートの感情傾向を分類します。
SST-2データセットでの正解率は94.8%です。
テキスト類似度計算
2つのテキストの意味的な類似度を測定します。
STS-Bデータセットでの得点は91.2です。
情報抽出
固有表現認識
テキストから人物/場所/組織などのエンティティを識別します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase