M

Multilingual ModernBert Large Preview

由makiart開發
由Algomatic團隊開發的多語言大型BERT模型,支持8192上下文長度,訓練約600億token,適用於填充掩碼任務。
下載量 27
發布時間 : 2/11/2025

模型概述

這是一個多語言大型BERT模型,專為填充掩碼任務設計,支持多種語言處理,具有較大的詞彙量和上下文處理能力。

模型特點

長上下文支持
支持8192的上下文長度,適合處理長文本任務。
多語言能力
能夠處理多種語言(如韓語、英語、中文等)的文本。
高效推理
支持FlashAttention技術,可在支持GPU上實現高效推理。
大詞彙量
詞彙量達151,680,優化了代碼文本處理能力,可區分縮進。

模型能力

多語言文本處理
填充掩碼預測
長文本理解

使用案例

文本處理
韓語文本填充
預測韓語句子中被掩碼的詞語。
英語文本填充
預測英語句子中被掩碼的詞語。
中文文本填充
預測中文句子中被掩碼的詞語。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase