C

Chinese Roberta L 2 H 256

uerによって開発
CLUECorpusSmallで事前学習された中国語RoBERTaモデルで、8層ネットワークと512隠れ層次元を含み、様々な中国語NLPタスクに適しています。
ダウンロード数 26
リリース時間 : 3/2/2022

モデル概要

これはUER-pyフレームワークで事前学習された中国語RoBERTaモデルセットの中型バージョンで、中国語テキスト処理に特化して最適化されており、マスク言語モデリングとテキスト特徴抽出をサポートします。

モデル特徴

マルチサイズモデル選択
24種類の異なる規模設定(2層/128隠れユニットから12層/768隠れユニットまで)を提供し、様々な計算リソース要件に対応
高効率事前学習
2段階トレーニング戦略(最初に128、次に512シーケンス長)を採用し、CLUECorpusSmallコーパスでより大規模なコーパスよりも優れた性能を達成
中国語最適化
中国語の特性に特化して設計・最適化され、中国語感情分析、テキストマッチングなどのタスクで優れたパフォーマンスを発揮

モデル能力

マスク言語モデリング
テキスト特徴抽出
中国語テキスト理解
下流タスクのファインチューニング

使用事例

感情分析
商品レビュー感情判断
ECプラットフォームのユーザーレビューの感情傾向を分析
中国語感情分析タスクで94.8%の精度を達成
テキストマッチング
Q&Aシステムマッチング
質問と候補回答の意味的類似度を計算
テキストマッチングタスクで88.1%の精度を達成
テキスト分類
ニュース分類
中国語ニュース記事を自動分類
CLUEニュース分類タスクで65.6%の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase