A

Albert Base Chinese Cluecorpussmall

由uer開發
基於CLUECorpusSmall預訓練的中文ALBERT模型,由UER-py框架訓練,適用於中文文本處理任務。
下載量 7,203
發布時間 : 3/2/2022

模型概述

這是一個輕量級的中文預訓練語言模型,基於ALBERT架構,專門針對中文文本進行了優化,可用於各種自然語言處理任務。

模型特點

輕量級設計
ALBERT架構通過參數共享實現了模型輕量化,降低了內存消耗和計算需求。
中文優化
專門針對中文文本進行預訓練,在中文任務上表現優異。
兩階段訓練
先以128序列長度訓練,再以512序列長度微調,提升模型性能。

模型能力

文本特徵提取
掩碼語言預測
中文文本理解

使用案例

文本補全
地理知識補全
補全類似'中國的首都是[MASK]京'的地理知識句子
能準確預測'北京'作為首都
文本特徵提取
中文文本表示
獲取中文文本的向量表示用於下游任務
可用於分類、聚類等任務
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase