C

Chinese Roberta L 8 H 512

Developed by uer
CLUECorpusSmallで事前学習された中国語RoBERTaモデルで、パラメータ規模は8層512隠れユニット、マスク言語モデリングタスクをサポートしています。
Downloads 76
Release Time : 3/2/2022

Model Overview

このモデルは中国語RoBERTa小型モデルシリーズの中型バージョンで、中国語テキスト理解と生成タスクに適しており、特にマスク予測タスクの処理に優れています。

Model Features

マルチスケール選択
24種類の異なるパラメータ規模のモデルを提供し、超小型から基本型まで、様々な計算リソース要件に対応
2段階トレーニング
短いシーケンスから長いシーケンスへと段階的にトレーニングする戦略を採用し、異なる長さのテキストに対する理解能力を向上
公開コーパスでのトレーニング
公開されているCLUECorpusSmallコーパスを使用してトレーニングし、結果の再現性を確保

Model Capabilities

中国語テキスト理解
マスク言語モデリング
テキスト特徴抽出

Use Cases

テキスト補完
地理知識補完
地理知識を含む文を補完します。例:'北京は[MASK]国の首都です'
'中'という文字をマスク位置に正確に予測
感情分析
コメント感情判断
ユーザーコメントの感情傾向を判断するために使用
中国語感情分析タスクで93.4%の精度を達成
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase