A

Albert Xlarge V1

albertによって開発
ALBERT XLarge v1は英語コーパスで事前学習された大規模言語モデルで、パラメータ共有の軽量Transformerアーキテクチャを採用し、マスク言語モデリングと文順予測タスクに特化しています。
ダウンロード数 516
リリース時間 : 3/2/2022

モデル概要

このモデルはALBERTシリーズのXLargeバージョンで、自動教師付き学習によりBookCorpusと英語版ウィキペディアのデータで学習され、下流のNLPタスクの微調整に適しています。

モデル特徴

パラメータ共有アーキテクチャ
すべてのTransformer層が重みを共有することで、メモリ使用量を大幅に削減しながらモデル容量を維持します。
双タスク事前学習
マスク言語モデリング(MLM)と文順予測(SOP)の同時学習により、意味理解能力を強化します。
軽量設計
同じ隠れ層数のBERTモデルと比較して、パラメータを約90%削減しています。

モデル能力

テキスト特徴抽出
マスク単語予測
文関係判断
下流タスク微調整

使用事例

テキスト理解
感情分析
モデルを微調整してテキストの感情傾向を判断します。
SST - 2データセットで92.4%の正解率を達成しました。
質問応答システム
SQuADデータを基に微調整して質問応答モデルを構築します。
SQuAD2.0で86.1/83.1(F1/EM)を達成しました。
言語推論
自然言語推論
文間の論理関係を判断します。
MNLIデータセットで86.4%の正解率を達成しました。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase