C

Chinese Roberta Wwm Ext Large

由hfl開發
採用全詞掩碼策略的中文預訓練BERT模型,旨在加速中文自然語言處理研究進程。
下載量 30.27k
發布時間 : 3/2/2022

模型概述

該模型是基於BERT架構的中文預訓練模型,採用全詞掩碼策略進行訓練,適用於各種中文自然語言處理任務。

模型特點

全詞掩碼策略
採用全詞掩碼而非單字掩碼,更適合中文語言特性,提升模型理解能力。
中文優化
專門針對中文語言特性進行優化,在中文NLP任務中表現優異。
預訓練模型
提供預訓練好的模型權重,可直接用於下游任務微調。

模型能力

文本分類
命名實體識別
問答系統
文本相似度計算
文本生成

使用案例

自然語言處理
情感分析
用於中文文本的情感傾向分析
機器閱讀理解
構建中文問答系統
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase