C

Cpt Large

fnlpによって開発
中国語の理解と生成に向けた事前学習済み非平衡Transformerモデルで、様々な自然言語処理タスクをサポート
ダウンロード数 122
リリース時間 : 3/2/2022

モデル概要

CPT-LargeはTransformerアーキテクチャに基づく中国語事前学習モデルで、中国語テキストの理解と生成タスクに特化して最適化されています。非平衡なエンコーダー-デコーダー構造を採用し、BERTスタイルのエンコード能力を維持しながら生成能力を強化しています。

モデル特徴

最適化された中国語語彙
51271サイズの新語彙を採用し、6800以上の欠落漢字を補完、冗長なマーカーを削除、新規英語トークンを追加して未知語率を低減
拡張位置エンコーディング
最大位置埋め込みを512から1024に拡張し、より長いテキストシーケンスの処理をサポート
非平衡アーキテクチャ設計
エンコーダー-デコーダーの非平衡構造を採用し、テキスト理解と生成能力を両立

モデル能力

中国語テキスト理解
中国語テキスト生成
テキスト分類
要約生成
マスク埋め予測

使用事例

テキスト理解
テキスト分類
中国語テキストの分類(ニュース分類、感情分析など)
AFQMCタスクで75.97の精度を達成
テキスト生成
要約生成
中国語テキストの自動要約生成
LCSTSデータセットでROUGE-Lスコア42.08を獲得
マスク埋め予測
テキスト中のマスクされた内容を予測
例文'北京は中国の首都である'を正確に予測
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase