R

Rumodernbert Small

由deepvk開發
俄羅斯版現代化單向雙向編碼器Transformer模型,預訓練使用了約2萬億個俄語、英語和代碼數據的標記,上下文長度高達8,192個標記。
下載量 619
發布時間 : 1/24/2025

模型概述

RuModernBERT是俄羅斯的現代化BERT模型,支持掩碼語言模型任務,適用於俄語和英語文本處理。

模型特點

長上下文支持
支持高達8,192個標記的上下文長度,適合處理長文本。
多語言支持
預訓練數據包含俄語、英語和代碼數據,支持多語言任務。
高效訓練
採用三階段訓練策略,使用不同質量的數據源優化模型性能。

模型能力

掩碼語言模型
俄語文本處理
英語文本處理
長文本理解

使用案例

自然語言處理
文本補全
使用掩碼語言模型功能補全句子中的缺失部分。
示例:'媽媽洗了[MASK]。' → '媽媽洗了碗。'
文本理解
處理和理解長文本內容。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase