M

Mengzi Bert Base

Langboatによって開発
300Gの中国語コーパスに基づいて事前学習されたBERTモデルで、MLM、POS、SOPタスクを用いて学習
ダウンロード数 438
リリース時間 : 3/2/2022

モデル概要

軽量でありながら強力な中国語事前学習言語モデルで、様々な中国語自然言語処理タスクに適用可能

モデル特徴

中国語最適化
中国語の言語特性に特化して最適化され、300Gの中国語コーパスに基づいて学習
マルチタスク学習
マスク言語モデリング、品詞タグ付け、文順予測の3つのタスクを組み合わせて学習
軽量で効率的
同類のモデルと比べて軽量な構造を持ち、強力な性能を維持

モデル能力

テキスト理解
テキスト補完
意味解析
文関係判断

使用事例

自然言語処理
テキスト補完
テキスト中の[MASK]位置を埋める
例に示すように、文脈を正確に理解して内容を補完できる
テキスト分類
中国語テキストを分類する
TNEWSなどの分類タスクで優れた性能を発揮
意味理解
自然言語推論
文間の論理関係を判断する
CMNLIタスクで82.12%の正解率を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase