B

Bart Base Chinese

由fnlp開發
面向中文理解與生成的預訓練非平衡Transformer模型,支持文本到文本生成任務
下載量 6,504
發布時間 : 3/2/2022

模型概述

中文BART基礎版是一個基於Transformer架構的序列到序列模型,專門針對中文文本理解和生成任務進行優化。該模型通過預訓練學習中文語言表示,能夠處理多種文本生成任務。

模型特點

優化的中文詞彙表
採用從訓練數據構建的51271詞項新詞表,補全缺失漢字並移除冗餘標記,提升中文處理能力
擴展的位置編碼
最大位置編碼長度從512擴展至1024,支持處理更長文本序列
增量訓練優化
通過詞彙對齊方式繼承舊版參數,新增參數隨機初始化後進行5萬步增量訓練

模型能力

中文文本生成
文本摘要
文本補全
問答生成

使用案例

文本生成
首都識別
識別並生成城市與國家首都關係
輸入'北京是[MASK]的首都',輸出'北 京 是 中 國 的 首 都'
文本摘要
中文文檔摘要
生成中文文檔的簡潔摘要
在CSL摘要任務中達到61.51的ROUGE-L分數
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase