R

Roberta Medium Word Chinese Cluecorpussmall

uerによって開発
CLUECorpusSmallで事前学習された中国語分かち書き版RoBERTaミディアムモデル。8層512隠れ層アーキテクチャを採用し、文字単位モデルに比べて複数のタスクで優れた性能を発揮
ダウンロード数 293
リリース時間 : 3/2/2022

モデル概要

中国語分かち書き版RoBERTaモデルシリーズのミディアムサイズ。マスク言語モデリングなどの自然言語処理タスクをサポートし、処理速度が速く性能も優れている

モデル特徴

分かち書き版の利点
文字単位モデルに比べて処理速度が速く性能も優れ、複数の中国語NLPタスクで平均1.1ポイント向上
マルチサイズ選択
ミニ(Tiny)からベース(Base)まで5種類のサイズの事前学習モデルを提供
公開トレーニングプロセス
トレーニングデータとパラメータを完全公開。CLUECorpusSmallコーパスとsentencepiece分かち書きツールを使用

モデル能力

中国語テキスト理解
マスク単語予測
テキスト特徴量抽出
下流タスクのファインチューニング

使用事例

テキスト補完
文補完
マスクされた単語を予測して文を完成
入力例'[MASK]の首都は北京'に対して、モデルは正しく'中国'を予測
感情分析
レビュー感情判定
ファインチューニング後、商品レビューの感情分類に使用
書籍レビューの感情タスクで90.0%の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase