C

Chinese Roberta L 6 H 768

uerによって開発
CLUECorpusSmallで事前学習された中国語RoBERTa中型モデルで、8層ネットワークと512次元の隠れ層を持ち、様々な中国語NLPタスクに適しています。
ダウンロード数 222
リリース時間 : 3/2/2022

モデル概要

これは事前学習された中国語RoBERTaモデルで、マスク言語モデリング目標を用いて訓練されており、テキスト特徴抽出、テキスト分類、感情分析などの自然言語処理タスクに使用できます。

モデル特徴

マルチサイズモデル選択
超小型から基本型までの24種類の異なるパラメータ規模のモデルを提供し、様々な計算リソース要件に対応
中国語最適化
中国語テキストに特化して最適化されており、中国語NLPタスクで優れた性能を発揮
2段階トレーニング
128と512の2つのシーケンス長で段階的にトレーニングを行い、異なる長さのテキストに対するモデルの処理能力を向上

モデル能力

テキスト特徴抽出
マスク言語モデリング
テキスト分類
感情分析
テキストマッチング
自然言語推論

使用事例

感情分析
商品レビュー感情分析
ECプラットフォームの商品レビューの感情傾向を分析
中国語感情分析タスクで93.4%の精度を達成
テキスト分類
ニュース分類
ニュース記事を自動分類
CLUEニュース分類タスクで65.1%の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase