C

Chinese Roberta L 4 H 768

uerによって開発
CLUECorpusSmallで事前学習された24の中国語RoBERTaモデルシリーズの1つで、UER-pyフレームワークでトレーニングされ、マスク言語モデリングとテキスト特徴抽出をサポートします。
ダウンロード数 17
リリース時間 : 3/2/2022

モデル概要

このモデルは中国語RoBERTaシリーズの中型バージョンで、8層ネットワークと512次元の隠れ層を持ち、さまざまな中国語自然言語処理タスクに適しています。

モデル特徴

マルチサイズ選択
24種類の異なる規模のモデル構成を提供し、超小型から基本型まで、さまざまな計算リソースのニーズに対応します
中国語最適化
中国語テキストに特化して事前学習され、CLUEベンチマークで優れたパフォーマンスを発揮します
2段階トレーニング
128と512の2つのシーケンス長を使用した2段階のトレーニング戦略を採用し、モデルのパフォーマンスを向上させます

モデル能力

テキスト特徴抽出
マスク言語予測
中国語テキスト理解

使用事例

テキスト理解
感情分析
ユーザーレビューの感情傾向を分析します
中国語感情分析タスクで94.8%の精度を達成しました
テキスト分類
ニュースやアプリケーションを分類します
CLUEニュース分類タスクで65.6%の精度を達成しました
意味理解
文マッチング
2つの文の意味的類似性を判断します
文マッチングタスクで88.1%の精度を達成しました
自然言語推論
テキスト間の論理的関係を判断します
CLUE自然言語推論タスクで71.2%の精度を達成しました
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase