B

Bart Large Chinese

由fnlp開發
基於BART架構的中文預訓練模型,支持文本生成和理解任務,由復旦大學自然語言處理實驗室發佈
下載量 638
發布時間 : 3/2/2022

模型概述

面向中文理解與生成的預訓練非平衡Transformer模型,適用於多種自然語言處理任務

模型特點

詞表優化
採用51271大小的新詞表,補全6800+缺失漢字並移除冗餘標記,降低未登錄詞率
長序列支持
位置編碼從512擴展到1024,支持更長的文本序列處理
性能穩定
通過詞彙對齊技術和增量訓練保持原有性能水平

模型能力

文本生成
文本理解
文本摘要
問答系統
文本補全

使用案例

文本生成
首都填空
生成完整的國家首都描述
輸入'北京是[MASK]的首都',輸出'北 京 是 中 華 人 民 共 和 國 的 首 都'
學術研究
中文NLP研究
作為基線模型用於中文自然語言處理任務研究
在AFQMC、IFLYTEK等基準測試中表現良好
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase