M

Multilingual Albert Base Cased 32k

由cservan開發
基於掩碼語言建模目標預訓練的多語言ALBERT模型,支持50+種語言,區分大小寫
下載量 243
發布時間 : 12/20/2023

模型概述

該模型是通過自監督方式在維基百科多語言文本上預訓練的transformers模型,主要用於特徵提取和下游任務微調。採用ALBERT架構,具有參數共享特性,顯著減少內存佔用。

模型特點

多語言支持
支持50多種語言處理,包括主要歐洲和亞洲語言
參數共享架構
採用ALBERT特有的跨層參數共享機制,大幅減少模型參數規模
區分大小寫
相比傳統ALBERT模型能準確識別大小寫差異
高效預訓練
通過掩碼語言建模和句子順序預測雙目標優化

模型能力

多語言文本理解
句子特徵提取
下游任務微調
掩碼詞符預測

使用案例

自然語言處理
槽填充任務
用於對話系統中的信息抽取任務
在MultiATIS++數據集上達到88.60準確率
文本分類
多語言文本分類應用
在MMNLU任務上達到70.76準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase