D

Debertav2 Base Uncased

mlcorelibによって開発
BERTはTransformerアーキテクチャに基づく事前訓練済み言語モデルで、マスク言語モデリングと次文予測タスクを通じて英語コーパスで訓練されています。
ダウンロード数 21
リリース時間 : 3/2/2022

モデル概要

このモデルは英語コーパスに基づき、マスク言語モデリング(MLM)目標で事前訓練されたTransformerモデルで、様々な自然言語処理タスクに適しています。

モデル特徴

双方向コンテキスト理解
マスク言語モデリングタスクを通じて、モデルは単語の双方向コンテキスト表現を学習できます
マルチタスク事前訓練
マスク言語モデリングと次文予測の2つのタスクを同時に使用して事前訓練を行います
大文字小文字を区別しない
モデルは入力テキストの大文字小文字に敏感ではなく、すべて小文字形式で統一処理されます

モデル能力

テキスト特徴抽出
文関係予測
マスク単語予測
下流タスクのファインチューニング

使用事例

テキスト分類
感情分析
テキストをポジティブ/ネガティブに分類
SST-2データセットで93.5%の精度を達成
質問応答システム
読解
与えられたテキストに基づいて質問に答える
固有表現認識
エンティティ抽出
テキストから人名、地名などのエンティティを識別
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase