C

Chinese Electra Small Generator

由hfl開發
中文ELECTRA是哈工大-訊飛聯合實驗室基於谷歌ELECTRA架構開發的中文預訓練模型,參數量僅為BERT的1/10但性能相近。
下載量 16
發布時間 : 3/2/2022

模型概述

基於ELECTRA架構的中文預訓練模型,採用生成器-判別器結構進行高效預訓練,適用於多種自然語言處理任務。

模型特點

高效預訓練
採用ELECTRA的替換標記檢測預訓練方法,比傳統MLM更高效
參數精簡
small版模型參數量僅為BERT的1/10,但性能相近
中文優化
專門針對中文文本特性進行優化訓練

模型能力

文本理解
文本表示學習
掩碼語言建模

使用案例

自然語言處理
文本分類
用於情感分析、新聞分類等文本分類任務
問答系統
作為問答系統的預訓練基礎模型
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase