C

Chinese Bert Wwm

hflによって開発
全単語マスキング戦略を採用した中国語事前学習BERTモデルで、中国語自然言語処理研究を加速することを目的としています。
ダウンロード数 28.52k
リリース時間 : 3/2/2022

モデル概要

これは全単語マスキング戦略に基づく中国語事前学習BERTモデルで、中国語自然言語処理タスクに最適化されており、中国語テキストの意味理解タスクをより効果的に処理できます。

モデル特徴

全単語マスキング戦略
単字マスキングではなく全単語マスキングを採用し、中国語の言語特性に適しており、モデルの中国語テキスト理解能力を向上させます。
中国語最適化
中国語テキストに特化して最適化されており、様々な中国語自然言語処理タスクに適用できます。
事前学習モデル
事前学習済みのモデル重みを提供しており、ユーザーは下流タスクに直接使用したり、ファインチューニングしたりできます。

モデル能力

テキスト分類
固有表現抽出
質問応答システム
意味理解

使用事例

自然言語処理
中国語テキスト分類
中国語テキストの分類に使用されます。例えばニュース分類、感情分析など。
固有表現抽出
中国語テキスト中の固有名詞(人名、地名、組織名など)を識別します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase