A

Albert Large V1

由albert開發
ALBERT是基於英語語料預訓練的輕量級BERT變體,通過參數共享減少內存佔用,支持掩碼語言建模和句子順序預測任務。
下載量 979
發布時間 : 3/2/2022

模型概述

該模型採用自監督方式在BookCorpus和英文維基百科上預訓練,主要用於自然語言處理任務的特徵提取和下游任務微調。

模型特點

參數共享架構
所有Transformer層共享相同參數,顯著減少模型體積(僅為BERT-large的1/18)
雙任務預訓練
同時進行掩碼語言建模(MLM)和句子順序預測(SOP),增強語義理解能力
輕量級設計
128維詞嵌入和1024維隱藏層的平衡設計,兼顧性能與效率

模型能力

文本特徵提取
掩碼詞預測
句子關係判斷
下游任務微調

使用案例

文本理解
缺失詞補全
預測被遮蔽的詞語,如'Hello I'm a [MASK] model'
可輸出'modeling'、'modelling'等合理預測
教育應用
閱讀理解系統
基於SQuAD數據集微調後可用於問答系統
V1版本在SQuAD1.1達到90.6/83.9(F1/EM)
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase