C

Chinese Roberta L 12 H 768

uerによって開発
RoBERTaアーキテクチャに基づく中国語事前学習言語モデル、隠れ層次元512、8層Transformer構造を含む
ダウンロード数 419
リリース時間 : 3/2/2022

モデル概要

このモデルは中国語RoBERTa小型モデルセットの中型バージョンで、テキスト分類、感情分析、文類似度計算など、さまざまな中国語自然言語処理タスクに適しています。

モデル特徴

マルチサイズ選択
24種類の異なるパラメータ規模のモデルを提供し、超小型から基本型まで、さまざまな計算リソース要件に対応
2段階トレーニング
128と512の2つのシーケンス長で段階的にトレーニングを行い、異なる長さのテキストに対するモデルの処理能力を向上
公開コーパスでのトレーニング
公開されているCLUECorpusSmallコーパスを使用してトレーニングし、結果の再現性を確保

モデル能力

中国語テキスト理解
マスク言語モデリング
テキスト特徴抽出
感情分析
テキスト分類
文類似度計算

使用事例

感情分析
商品レビュー感情分析
ECプラットフォームのユーザーレビューの感情傾向を分析
中国語感情分析タスクで93.4%の精度を達成
テキスト分類
ニュース分類
ニュース記事をテーマ別に分類
CLUEニュース分類タスクで65.1%の精度を達成
意味理解
文類似度計算
2つの文の意味的類似度を判断
文類似度タスクで86.5%の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase