A

Albert Base V2

albertによって開発
ALBERTはTransformerアーキテクチャに基づく軽量版の事前学習言語モデルで、パラメータ共有メカニズムによりメモリ使用量を削減し、英語のテキスト処理タスクに適しています。
ダウンロード数 3.1M
リリース時間 : 3/2/2022

モデル概要

ALBERT基礎版v2は大文字小文字を区別しない英語の事前学習言語モデルで、マスク言語モデリングと文順予測の目標を用いて学習され、下流のNLPタスクの微調整に適しています。

モデル特徴

パラメータ共有メカニズム
すべてのTransformer層が同じ重みを共有し、モデルのパラメータ数を大幅に削減します。
双目標事前学習
マスク言語モデリング(MLM)と文順予測(SOP)を同時に用いて自己教師付き学習を行います。
軽量設計
標準のBERTモデルと比較して、パラメータが90%削減されながらも強力な性能を維持します。

モデル能力

テキスト特徴抽出
文順予測
マスク単語予測
下流タスクの微調整

使用事例

テキスト理解
シーケンス分類
テキストシーケンスに対して感情分析やトピック分類を行います。
SST - 2感情分析タスクで92.9%の正解率を達成しました。
質問応答システム
テキスト内容に基づく質問応答タスクを処理します。
SQuAD1.1タスクで90.2/83.2のEM/F1スコアを達成しました。
言語モデリング
マスク単語予測
マスクされた単語を予測して文を完成させます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase