M

Multilingual Albert Base Cased 32k

由 cservan 开发
基于掩码语言建模目标预训练的多语言ALBERT模型,支持50+种语言,区分大小写
下载量 243
发布时间 : 12/20/2023

模型简介

该模型是通过自监督方式在维基百科多语言文本上预训练的transformers模型,主要用于特征提取和下游任务微调。采用ALBERT架构,具有参数共享特性,显著减少内存占用。

模型特点

多语言支持
支持50多种语言处理,包括主要欧洲和亚洲语言
参数共享架构
采用ALBERT特有的跨层参数共享机制,大幅减少模型参数规模
区分大小写
相比传统ALBERT模型能准确识别大小写差异
高效预训练
通过掩码语言建模和句子顺序预测双目标优化

模型能力

多语言文本理解
句子特征提取
下游任务微调
掩码词符预测

使用案例

自然语言处理
槽填充任务
用于对话系统中的信息抽取任务
在MultiATIS++数据集上达到88.60准确率
文本分类
多语言文本分类应用
在MMNLU任务上达到70.76准确率
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase