T

Testmodel

sramasamy8によって開発
BERTは大規模な英語コーパスを基に自己教師付き方式で事前学習されたtransformersモデルで、マスク言語モデリングと次文予測の目標を用いて学習されます。
ダウンロード数 21
リリース時間 : 3/2/2022

モデル概要

このモデルは双方向Transformerアーキテクチャを採用し、事前学習によって英語の内在的な表現を学習し、完全な文の意味を理解する必要がある下流タスクの微調整に適しています。

モデル特徴

双方向文脈理解
MLM目標によって双方向の文脈を捉えることができ、従来の単方向言語モデルより優れています。
多タスク事前学習
単語レベル(MLM)と文レベル(NSP)の表現を同時に学習します。
大文字小文字を区別しない
大文字小文字のバリエーションを統一的に処理し、語彙表の複雑さを低減します。

モデル能力

テキスト特徴抽出
文関係判断
遮蔽単語予測

使用事例

テキスト理解
感情分析
レビューテキストを肯定的/否定的な感情に分類します。
SST - 2データセットで93.5の正解率を達成しました。
質問応答システム
段落の内容に基づいて関連する質問に答えます。
意味的マッチング
复述検出
2つの文が同じ意味を表しているかどうかを判断します。
MRPCデータセットで88.9の正解率を達成しました。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase