A

Albert Base V2

由albert開發
ALBERT是基於Transformer架構的輕量級預訓練語言模型,通過參數共享機制減少內存佔用,適用於英語文本處理任務。
下載量 3.1M
發布時間 : 3/2/2022

模型概述

ALBERT基礎版v2是一個不區分大小寫的英語預訓練語言模型,採用掩碼語言建模和句子順序預測目標進行訓練,適用於下游NLP任務的微調。

模型特點

參數共享機制
所有Transformer層共享相同權重,顯著減少模型參數數量
雙目標預訓練
同時採用掩碼語言建模(MLM)和句子順序預測(SOP)進行自監督學習
輕量級設計
相比標準BERT模型,參數減少90%但仍保持較強性能

模型能力

文本特徵提取
句子順序預測
掩碼詞預測
下游任務微調

使用案例

文本理解
序列分類
對文本序列進行情感分析或主題分類
在SST-2情感分析任務中達到92.9%準確率
問答系統
基於文本內容的問答任務處理
在SQuAD1.1任務上達到90.2/83.2的EM/F1分數
語言建模
掩碼詞預測
預測被遮蔽的詞彙完成句子
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase