M

Mk Roberta Base

由 macedonizer 开发
基于马其顿语训练的掩码语言建模预训练模型,区分大小写处理
下载量 18
发布时间 : 3/2/2022

模型简介

该模型是通过自监督方式在大规模马其顿语文本上预训练的transformer模型,采用掩码语言建模目标,学习马其顿语的双向表征,适用于下游任务的微调。

模型特点

双向语境理解
通过遮蔽语言建模目标实现双向语境表征,优于传统单向语言模型
马其顿语优化
专门针对马其顿语特性训练,包含大小写敏感处理能力
大规模预训练
基于马其顿语维基百科和时政新闻数据集训练,覆盖广泛领域

模型能力

文本特征提取
掩码词汇预测
下游任务微调

使用案例

文本理解
序列分类
用于情感分析或主题分类任务
命名实体识别
识别马其顿语文本中的人名、地名等实体
语言教育
语法填空
生成马其顿语语法练习材料
示例显示能准确预测'Скопје е главен град'等常见表达
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase