R

Ro Bart 1024

由 Iulian277 开发
这是一个从零开始预训练的BART基础模型,拥有1.4亿参数,基于50GB罗马尼亚语文本语料库训练。
下载量 85
发布时间 : 5/23/2023

模型简介

该模型针对文本损坏任务进行预训练,未经微调前无法直接用于下游任务。

模型特点

大规模预训练
基于50GB罗马尼亚语文本语料库训练,具有强大的语言理解能力。
长序列处理
训练时最大序列长度为1024,适合处理长文本。
从零开始训练
模型完全从零开始预训练,而非基于已有模型的微调。

模型能力

文本损坏任务预训练
罗马尼亚语文本处理

使用案例

自然语言处理
文本修复
可用于文本修复任务的预训练基础模型。
文本生成
经微调后可用于罗马尼亚语文本生成任务。
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase