C

Chinese Roberta L 2 H 128

uerによって開発
これはCLUECorpusSmallを基に事前学習された中国語RoBERTa中型モデルで、8層のネットワークと512次元の隠れ層を持ち、様々な中国語自然言語処理タスクに適しています。
ダウンロード数 1,141
リリース時間 : 3/2/2022

モデル概要

このモデルは中国語RoBERTaミニモデルセットの中型バージョンで、マスク言語モデリング(MLM)の目標で事前学習され、テキスト特徴抽出と下流のNLPタスクの微調整に使用できます。

モデル特徴

効率的な事前学習
二段階学習戦略を採用し、まず短いシーケンスで学習し、次に長いシーケンスで微調整して、学習効率を最適化します。
多サイズ選択
超小型から基本型まで24種類の異なるパラメータ規模のモデルを提供します。
中国語最適化
中国語テキストに特化して事前学習と最適化を行います。

モデル能力

マスク言語モデリング
テキスト特徴抽出
感情分析
テキスト分類
文のマッチング
自然言語推論

使用事例

テキスト理解
感情分析
ユーザーのコメントの感情傾向を分析します。
中国語感情分析タスクで93.4%の正解率を達成します。
ニュース分類
ニュース記事を自動分類します。
CLUEニュース分類タスクで65.1%の正解率を達成します。
意味理解
文のマッチング
二つの文の意味の類似度を判断します。
文のマッチングタスクで86.5%の正解率を達成します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase