R

Roberta Base Indonesian 522M

由cahya開發
基於RoBERTa-base架構的印尼語預訓練模型,使用印尼語維基百科數據訓練,不區分大小寫。
下載量 454
發布時間 : 3/2/2022

模型概述

這是一個基於RoBERTa-base架構的模型,使用印尼語維基百科數據通過掩碼語言建模(MLM)目標進行預訓練。該模型不區分大小寫,適用於印尼語文本處理任務。

模型特點

無大小寫區分
模型不區分大小寫,例如'indonesia'和'Indonesia'被視為相同。
基於RoBERTa架構
採用RoBERTa-base架構,優化了原始BERT的訓練方法。
印尼語專用
專門針對印尼語進行預訓練,適用於印尼語文本處理任務。

模型能力

掩碼語言建模
文本特徵提取
印尼語文本處理

使用案例

文本處理
掩碼預測
預測文本中被掩碼的單詞
可準確預測印尼語文本中的缺失單詞
文本特徵提取
獲取文本的向量表示
可用於下游NLP任務的特徵輸入
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase