M

Multilingual Albert Base Cased 64k

由 cservan 开发
基于掩码语言建模(MLM)目标预训练的多语言ALBERT模型,支持64k词表大小,区分大小写
下载量 52
发布时间 : 12/20/2023

模型简介

mALBERT是在多语言维基百科文本上通过自监督方式预训练的transformers模型,采用共享权重的Transformer层结构,适用于下游任务的微调。

模型特点

多语言支持
支持50+种语言处理,包括主要欧洲和亚洲语言
权重共享架构
采用ALBERT特有的共享权重Transformer层,减少内存占用
区分大小写
能有效识别单词的大小写差异(如'french'与'French')
高效预训练
通过掩码语言建模和句子顺序预测双目标进行预训练

模型能力

多语言文本理解
句子顺序预测
下游任务特征提取
掩码词符预测

使用案例

自然语言处理
槽填充任务
在MMNLU、MultiATIS++等数据集上的信息抽取应用
在MultiATIS++上达到88.88准确率
文本分类
多语言文本分类任务处理
在MMNLU分类任务上达到71.26准确率
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase