A

Albert Xlarge V2

albertによって開発
ALBERT XLarge v2はTransformerアーキテクチャに基づく英語事前学習モデルで、パラメータ共有メカニズムを採用してメモリ使用量を削減し、マスク言語モデリングと文順予測の目標で学習されます。
ダウンロード数 2,195
リリース時間 : 3/2/2022

モデル概要

このモデルは主に英語テキストの特徴抽出に使用され、シーケンス分類、タグ分類または質問応答などの下流タスクの微調整に適しています。

モデル特徴

パラメータ共有メカニズム
すべてのTransformer層が同じ重みを共有し、メモリ使用量を大幅に削減します。
双目標事前学習
マスク言語モデリング(MLM)と文順予測(SOP)を同時に使用して事前学習を行います。
高効率アーキテクチャ
128次元の単語埋め込みと2048次元の隠れ層により、高効率な計算を実現します。

モデル能力

英語テキスト理解
特徴抽出
マスク言語予測
文順予測

使用事例

テキスト分類
感情分析
テキストを肯定的/否定的な感情に分類します。
質問応答システム
読解
与えられたテキストに基づいて関連する質問に回答します。
SQuAD2.0で87.9/84.1のF1/EMスコアを達成しました。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase