A

Albert Xlarge V2

由albert開發
ALBERT XLarge v2是基於Transformer架構的英語預訓練模型,採用參數共享機制減少內存佔用,通過掩碼語言建模和句子順序預測目標訓練。
下載量 2,195
發布時間 : 3/2/2022

模型概述

該模型主要用於英語文本的特徵提取,適用於下游任務的微調,如序列分類、標記分類或問答。

模型特點

參數共享機制
所有Transformer層共享相同權重,顯著減少內存佔用
雙目標預訓練
同時使用掩碼語言建模(MLM)和句子順序預測(SOP)進行預訓練
高效架構
通過128維詞嵌入和2048維隱藏層實現高效計算

模型能力

英語文本理解
特徵提取
掩碼語言預測
句子順序預測

使用案例

文本分類
情感分析
對文本進行正面/負面情感分類
問答系統
閱讀理解
基於給定文本回答相關問題
在SQuAD2.0上達到87.9/84.1的F1/EM分數
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase