R

Roberta Base Wechsel Chinese

由benjamin開發
通過WECHSEL方法訓練的RoBERTa中文模型,實現從英文到中文的高效跨語言遷移
下載量 16
發布時間 : 3/2/2022

模型概述

該模型採用WECHSEL方法訓練,通過有效初始化子詞嵌入實現單語語言模型的跨語言遷移,特別適用於中文自然語言處理任務。

模型特點

高效跨語言遷移
使用WECHSEL方法實現從英文到中文的高效參數遷移,顯著降低訓練成本
性能優越
在中文NLI和NER任務上表現優於傳統方法訓練的模型
低資源優化
特別適合低資源語言的模型遷移,減少訓練所需計算資源

模型能力

自然語言理解
文本分類
命名實體識別

使用案例

自然語言處理
中文文本分類
對中文文本進行分類任務
在NLI任務上達到78.32分
中文命名實體識別
識別中文文本中的命名實體
在NER任務上達到80.55分
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase