C

Chinese Bert Wwm Ext

hflによって開発
全単語マスキング戦略を採用した中国語事前学習BERTモデルで、中国語自然言語処理研究を加速することを目的としています。
ダウンロード数 24.49k
リリース時間 : 3/2/2022

モデル概要

このモデルはGoogle公式BERTプロジェクトに基づいて開発された中国語事前学習モデルで、全単語マスキング戦略を採用しており、さまざまな中国語自然言語処理タスクに適しています。

モデル特徴

全単語マスキング戦略
全単語マスキング戦略を採用しており、従来のマスキング戦略に比べて、中国語単語の意味情報をより効果的に捉えることができます。
中国語最適化
中国語の言語特性に特化して最適化されており、中国語自然言語処理タスクに適しています。
事前学習モデル
事前学習モデルを提供しており、下流タスクに直接使用したり、ファインチューニングしたりすることができます。

モデル能力

テキスト分類
固有表現認識
質問応答システム
テキスト生成

使用事例

自然言語処理
中国語テキスト分類
中国語テキストの感情分析、トピック分類などのタスクに使用されます。
固有表現認識
中国語テキスト中の人名、地名、組織名などのエンティティを識別します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase