C

Chinese Roberta L 2 H 128

Developed by uer
これはCLUECorpusSmallを基に事前学習された中国語RoBERTa中型モデルで、8層のネットワークと512次元の隠れ層を持ち、様々な中国語自然言語処理タスクに適しています。
Downloads 1,141
Release Time : 3/2/2022

Model Overview

このモデルは中国語RoBERTaミニモデルセットの中型バージョンで、マスク言語モデリング(MLM)の目標で事前学習され、テキスト特徴抽出と下流のNLPタスクの微調整に使用できます。

Model Features

効率的な事前学習
二段階学習戦略を採用し、まず短いシーケンスで学習し、次に長いシーケンスで微調整して、学習効率を最適化します。
多サイズ選択
超小型から基本型まで24種類の異なるパラメータ規模のモデルを提供します。
中国語最適化
中国語テキストに特化して事前学習と最適化を行います。

Model Capabilities

マスク言語モデリング
テキスト特徴抽出
感情分析
テキスト分類
文のマッチング
自然言語推論

Use Cases

テキスト理解
感情分析
ユーザーのコメントの感情傾向を分析します。
中国語感情分析タスクで93.4%の正解率を達成します。
ニュース分類
ニュース記事を自動分類します。
CLUEニュース分類タスクで65.1%の正解率を達成します。
意味理解
文のマッチング
二つの文の意味の類似度を判断します。
文のマッチングタスクで86.5%の正解率を達成します。
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase