R

Roberta Small Word Chinese Cluecorpussmall

uerによって開発
CLUECorpusSmallで事前学習された中国語単語レベルRoBERTa中型モデルで、文字レベルモデルと比較して複数のタスクで優れた性能を発揮
ダウンロード数 33
リリース時間 : 3/2/2022

モデル概要

このモデルは中国語単語レベルのRoBERTa事前学習モデルで、中規模アーキテクチャ(8層/512隠れ層)を採用し、CLUECorpusSmallコーパスで訓練されており、様々な中国語自然言語処理タスクに適しています。

モデル特徴

単語レベル分かち書きの利点
文字レベルモデルと比較して、単語レベル処理によりシーケンスが短く、速度が速く、複数のタスクで優れた性能を発揮
複数サイズ選択
超小型(Tiny)から基本(Base)までの5種類の異なる規模の事前学習モデルを提供
公開トレーニングプロセス
公開コーパスと分かち書きツールを使用し、完全なトレーニング詳細を提供して再現を容易に

モデル能力

中国語テキスト理解
マスク単語予測
テキスト特徴量抽出
下流タスクの微調整

使用事例

テキスト分類
感情分析
商品レビューやソーシャルメディアテキストの感情傾向判断に使用
中国語感情分析タスクで95.1%の精度を達成
ニュース分類
ニュース記事を自動的に主題分類
CLUEニュース分類タスクで67.8%の精度を達成
テキストマッチング
質問応答システム
質問と候補回答の関連性を判断
テキストマッチングタスクで88.0%の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase