A

Albert Large V2

albertによって開発
ALBERT Large v2は英語コーパスに基づき、マスク言語モデリング(MLM)目標で事前学習されたTransformerモデルで、パラメータ共有の特徴を持っています。
ダウンロード数 6,841
リリース時間 : 3/2/2022

モデル概要

このモデルはTransformerアーキテクチャに基づく自己教師付き学習モデルで、主に自然言語処理タスク、例えばテキスト分類、質問応答システムなどに使用されます。

モデル特徴

パラメータ共有
ALBERTはTransformerの各層のパラメータを共有することで、メモリ使用量を削減します。
効率的な事前学習
マスク言語モデリングと文順予測の2つの目標を通じて事前学習を行い、言語の深層表現を学習します。
バージョン改善
バージョン2はバージョン1よりも性能が良く、異なるドロップアウト率、追加の学習データ、より長い学習時間のおかげです。

モデル能力

テキスト特徴抽出
マスク言語モデリング
文順予測
下流タスクの微調整

使用事例

自然言語処理
テキスト分類
ALBERTモデルが生成した特徴を入力として標準分類器を学習させます。
質問応答システム
質問応答タスクで微調整を行い、例えばSQuADデータセットです。
SQuAD2.0で84.9/81.8のF1/EMスコアを達成します
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase