B

Bart Base Chinese

fnlpによって開発
中国語の理解と生成を対象とした事前学習済みの非平衡Transformerモデルで、テキスト-to-テキスト生成タスクをサポートします。
ダウンロード数 6,504
リリース時間 : 3/2/2022

モデル概要

中国語BART基礎版はTransformerアーキテクチャに基づくシーケンス-to-シーケンスモデルで、中国語テキストの理解と生成タスクに特化して最適化されています。このモデルは事前学習により中国語の言語表現を学習し、様々なテキスト生成タスクを処理することができます。

モデル特徴

最適化された中国語語彙表
学習データから構築された51271語の新しい語彙表を採用し、欠落している漢字を補完し、冗長なトークンを削除することで、中国語処理能力を向上させます。
拡張された位置符号化
最大位置符号化長を512から1024に拡張し、より長いテキストシーケンスの処理をサポートします。
増分学習の最適化
語彙アライメント方式で旧版のパラメータを引き継ぎ、新しいパラメータをランダムに初期化した後、5万ステップの増分学習を行います。

モデル能力

中国語テキスト生成
テキスト要約
テキスト補完
質問生成

使用事例

テキスト生成
首都識別
都市と国の首都の関係を識別して生成します。
入力「北京是[MASK]的首都」、出力「北 京 是 中 国 的 首 都」
テキスト要約
中国語文書要約
中国語文書の簡潔な要約を生成します。
CSL要約タスクで61.51のROUGE-Lスコアを達成しました。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase