M

Multilingual ModernBert Large Preview

Developed by makiart
由Algomatic团队开发的多语言大型BERT模型,支持8192上下文长度,训练约600亿token,适用于填充掩码任务。
Downloads 27
Release Time : 2/11/2025

Model Overview

这是一个多语言大型BERT模型,专为填充掩码任务设计,支持多种语言处理,具有较大的词汇量和上下文处理能力。

Model Features

长上下文支持
支持8192的上下文长度,适合处理长文本任务。
多语言能力
能够处理多种语言(如韩语、英语、中文等)的文本。
高效推理
支持FlashAttention技术,可在支持GPU上实现高效推理。
大词汇量
词汇量达151,680,优化了代码文本处理能力,可区分缩进。

Model Capabilities

多语言文本处理
填充掩码预测
长文本理解

Use Cases

文本处理
韩语文本填充
预测韩语句子中被掩码的词语。
英语文本填充
预测英语句子中被掩码的词语。
中文文本填充
预测中文句子中被掩码的词语。
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase