B

Bart Large Chinese

fnlpによって開発
BARTアーキテクチャに基づく中国語事前学習モデルで、テキスト生成と理解タスクをサポートし、復旦大学自然言語処理研究所からリリース
ダウンロード数 638
リリース時間 : 3/2/2022

モデル概要

中国語理解と生成のための事前学習済み非対称Transformerモデルで、様々な自然言語処理タスクに適用可能

モデル特徴

語彙最適化
51271サイズの新語彙を採用し、6800以上の不足漢字を補完し冗長マーカーを削除、未知語率を低減
長シーケンスサポート
位置エンコーディングを512から1024に拡張し、より長いテキストシーケンス処理をサポート
安定した性能
語彙アライメント技術と増分学習により元の性能レベルを維持

モデル能力

テキスト生成
テキスト理解
テキスト要約
質問応答システム
テキスト補完

使用事例

テキスト生成
首都穴埋め
完全な国の首都説明を生成
入力'北京は[MASK]の首都'、出力'北 京 は 中 華 人 民 共 和 国 の 首 都'
学術研究
中国語NLP研究
中国語自然言語処理タスク研究のベースラインモデルとして使用
AFQMC、IFLYTEKなどのベンチマークテストで良好なパフォーマンス
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase