C

Cpt Large

由fnlp開發
面向中文理解與生成的預訓練非平衡Transformer模型,支持多種自然語言處理任務
下載量 122
發布時間 : 3/2/2022

模型概述

CPT-Large是一個基於Transformer架構的中文預訓練模型,專門針對中文文本的理解和生成任務進行了優化。它採用了非平衡的編碼器-解碼器結構,在保持BERT風格編碼能力的同時增強了生成能力。

模型特點

優化的中文詞表
採用51271大小的新詞表,補全了6800+缺失漢字,移除冗餘標記,新增英文token降低未登錄詞率
擴展的位置編碼
最大位置嵌入從512擴展到1024,支持處理更長的文本序列
非平衡架構設計
採用編碼器-解碼器非平衡結構,同時兼顧文本理解和生成能力

模型能力

中文文本理解
中文文本生成
文本分類
摘要生成
填充掩碼預測

使用案例

文本理解
文本分類
對中文文本進行分類,如新聞分類、情感分析等
在AFQMC任務上達到75.97的準確率
文本生成
摘要生成
自動生成中文文本的摘要
在LCSTS數據集上ROUGE-L得分為42.08
填充掩碼預測
預測文本中被掩碼遮蓋的內容
示例中能正確預測'北京是中國的首都'
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase