R

Roberta Medium Word Chinese Cluecorpussmall

Developed by uer
CLUECorpusSmallで事前学習された中国語分かち書き版RoBERTaミディアムモデル。8層512隠れ層アーキテクチャを採用し、文字単位モデルに比べて複数のタスクで優れた性能を発揮
Downloads 293
Release Time : 3/2/2022

Model Overview

中国語分かち書き版RoBERTaモデルシリーズのミディアムサイズ。マスク言語モデリングなどの自然言語処理タスクをサポートし、処理速度が速く性能も優れている

Model Features

分かち書き版の利点
文字単位モデルに比べて処理速度が速く性能も優れ、複数の中国語NLPタスクで平均1.1ポイント向上
マルチサイズ選択
ミニ(Tiny)からベース(Base)まで5種類のサイズの事前学習モデルを提供
公開トレーニングプロセス
トレーニングデータとパラメータを完全公開。CLUECorpusSmallコーパスとsentencepiece分かち書きツールを使用

Model Capabilities

中国語テキスト理解
マスク単語予測
テキスト特徴量抽出
下流タスクのファインチューニング

Use Cases

テキスト補完
文補完
マスクされた単語を予測して文を完成
入力例'[MASK]の首都は北京'に対して、モデルは正しく'中国'を予測
感情分析
レビュー感情判定
ファインチューニング後、商品レビューの感情分類に使用
書籍レビューの感情タスクで90.0%の精度を達成
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase