C

Chinese Roberta L 6 H 512

uerによって開発
UER-pyで事前学習された中国語RoBERTaモデルシリーズの中型バージョンで、CLUECorpusSmallコーパスでトレーニングされ、さまざまな中国語NLPタスクに適しています。
ダウンロード数 19
リリース時間 : 3/2/2022

モデル概要

これはRoBERTaアーキテクチャに基づく中国語事前学習言語モデルで、8層と512隠れ層次元を持ち、マスク言語モデリングなどのタスクをサポートします。

モデル特徴

マルチサイズ選択
超小型から基本型まで24種類の異なる規模のモデル構成を提供し、さまざまな計算リソースのニーズに対応します。
中国語最適化
中国語テキストに特化して事前学習され、CLUEベンチマークテストで優れたパフォーマンスを発揮します。
2段階トレーニング
最初に短いシーケンス、次に長いシーケンスという2段階のトレーニング戦略を採用し、モデルの効果を向上させます。

モデル能力

中国語テキスト理解
マスク言語モデリング
テキスト特徴抽出

使用事例

テキスト理解
感情分析
中国語テキストの感情傾向を分析
中国語感情分析タスクで93.4%の精度を達成
ニュース分類
中国語ニューステキストを分類
CLUEニュース分類タスクで65.1%の精度を達成
言語推論
自然言語推論
文間の論理的関係を判断
CLUE自然言語推論タスクで69.7%の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase