M

Multilingual Albert Base Cased 64k

由cservan開發
基於掩碼語言建模(MLM)目標預訓練的多語言ALBERT模型,支持64k詞表大小,區分大小寫
下載量 52
發布時間 : 12/20/2023

模型概述

mALBERT是在多語言維基百科文本上通過自監督方式預訓練的transformers模型,採用共享權重的Transformer層結構,適用於下游任務的微調。

模型特點

多語言支持
支持50+種語言處理,包括主要歐洲和亞洲語言
權重共享架構
採用ALBERT特有的共享權重Transformer層,減少內存佔用
區分大小寫
能有效識別單詞的大小寫差異(如'french'與'French')
高效預訓練
通過掩碼語言建模和句子順序預測雙目標進行預訓練

模型能力

多語言文本理解
句子順序預測
下游任務特徵提取
掩碼詞符預測

使用案例

自然語言處理
槽填充任務
在MMNLU、MultiATIS++等數據集上的信息抽取應用
在MultiATIS++上達到88.88準確率
文本分類
多語言文本分類任務處理
在MMNLU分類任務上達到71.26準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase