A

Albert Xlarge V2

Developed by albert
ALBERT XLarge v2はTransformerアーキテクチャに基づく英語事前学習モデルで、パラメータ共有メカニズムを採用してメモリ使用量を削減し、マスク言語モデリングと文順予測の目標で学習されます。
Downloads 2,195
Release Time : 3/2/2022

Model Overview

このモデルは主に英語テキストの特徴抽出に使用され、シーケンス分類、タグ分類または質問応答などの下流タスクの微調整に適しています。

Model Features

パラメータ共有メカニズム
すべてのTransformer層が同じ重みを共有し、メモリ使用量を大幅に削減します。
双目標事前学習
マスク言語モデリング(MLM)と文順予測(SOP)を同時に使用して事前学習を行います。
高効率アーキテクチャ
128次元の単語埋め込みと2048次元の隠れ層により、高効率な計算を実現します。

Model Capabilities

英語テキスト理解
特徴抽出
マスク言語予測
文順予測

Use Cases

テキスト分類
感情分析
テキストを肯定的/否定的な感情に分類します。
質問応答システム
読解
与えられたテキストに基づいて関連する質問に回答します。
SQuAD2.0で87.9/84.1のF1/EMスコアを達成しました。
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase