R

Roberta Mini Word Chinese Cluecorpussmall

uerによって開発
CLUECorpusSmallを基に事前学習された中国語の語レベルのRoBERTa中型モデルで、文字モデルに比べて複数のタスクでより良い性能を発揮します。
ダウンロード数 44
リリース時間 : 3/2/2022

モデル概要

このモデルは中国語の語レベルのRoBERTa事前学習モデルで、語基分かち書き方式を採用しており、文字モデルに比べて処理速度が速く、性能も良いです。様々な中国語自然言語処理タスクに適しています。

モデル特徴

語基分かち書きの優位性
文字分かち書きではなく語基分かち書きを採用しており、処理速度が速く、実験では性能もより優れています。
多サイズ選択
ミニからベーシックまで5種類の異なるサイズのモデルを提供し、さまざまなアプリケーションシーンのニーズを満たします。
公開学習データ
公開されているCLUECorpusSmallコーパスと標準的な分かち書きツールを使用しているため、結果の再現が容易です。

モデル能力

中国語テキスト理解
マスク言語モデリング
テキスト特徴抽出

使用事例

テキスト理解
穴埋め補完
マスクされた語を予測します。例:「[MASK]の首都は北京」
「中国」などの合理的な答えを正確に予測できます。
特徴抽出
テキスト表現
下流タスクに使用するためのテキストのベクトル表現を取得します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase