R

Roberta Tiny Word Chinese Cluecorpussmall

uerによって開発
CLUECorpusSmallを用いて事前学習された中国語形態素解析版RoBERTa中型モデルで、8層512隠れ層のアーキテクチャを採用し、文字版モデルに比べて性能が優れ、処理速度が速い。
ダウンロード数 17
リリース時間 : 3/2/2022

モデル概要

中国語形態素解析版RoBERTa事前学習言語モデルで、マスク予測とテキスト特徴抽出タスクをサポートし、各種中国語自然言語処理アプリケーションに適用可能。

モデル特徴

形態素解析版の優位性
文字レベルではなく形態素解析処理を採用することで、シーケンス長を大幅に短縮し、処理速度を向上させ、実験により文字版モデルよりも性能が優れていることが証明されている。
複数の規格選択
Tiny(L2/H128)からBase(L12/H768)まで合計5種類の規格を提供し、異なる計算資源のニーズを満たす。
オープンソース学習
公開されているCLUECorpusSmallコーパスとsentencepiece形態素解析ツールを使用し、完全な学習詳細を提供して再現を容易にする。

モデル能力

中国語テキストマスク予測
テキスト特徴ベクトル抽出
下流タスクの微調整

使用事例

テキスト補完
交通情報検索
交通時刻表の検索文を補完する
サンプル入力:'最近の北京行きの[MASK]は何時に発車するか'
スマートQA
事実型QA
一般的な知識の質問に答える
サンプル入力:'[MASK]の首都は北京です。'
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase