C

Chinese Roberta L 8 H 256

uerによって開発
CLUECorpusSmallで事前学習された中国語RoBERTaモデルで、8層512隠れユニットのパラメータ規模を持ち、様々な中国語NLPタスクに適しています。
ダウンロード数 15
リリース時間 : 3/2/2022

モデル概要

このモデルは中国語RoBERTa小型モデルシリーズの中型バージョンで、RoBERTaアーキテクチャを最適化し、マスク言語モデリングなどのタスクをサポートします。

モデル特徴

マルチサイズ選択
24種類の異なるパラメータ規模のモデルを提供し、様々な計算リソース要件に対応
中国語最適化
中国語テキストに特化して事前学習を最適化
2段階トレーニング
128と512の2つのシーケンス長を用いた2段階トレーニング戦略を採用

モデル能力

中国語テキスト理解
マスク言語モデリング
テキスト特徴抽出

使用事例

テキスト理解
テキスト穴埋め
マスクされた単語やフレーズを予測
テストでは'北京は[MASK]国の首都'の'中'を正確に予測可能
感情分析
レビュー感情判定
テキストの感情傾向を分析
書評感情タスクで88.7点を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase