C

Chinese Roberta L 6 H 256

uerによって開発
CLUECorpusSmallで事前学習された中国語RoBERTaモデル、パラメータ規模は8層512隠れユニット
ダウンロード数 58
リリース時間 : 3/2/2022

モデル概要

このモデルは中国語RoBERTaシリーズの中型バージョンで、テキスト分類、感情分析、テキストマッチングなど、さまざまな中国語自然言語処理タスクに適しています。

モデル特徴

複数サイズ選択
24種類の異なるパラメータ規模のモデルを提供し、さまざまな計算リソース要件に対応
中国語最適化
中国語テキストに特化した事前学習と最適化
2段階トレーニング
最初に短いシーケンスでトレーニングし、その後長いシーケンスで微調整することでモデル性能を向上

モデル能力

テキスト特徴抽出
マスク言語モデリング
テキスト分類
感情分析
テキストマッチング
自然言語推論

使用事例

感情分析
商品レビュー感情分析
ECプラットフォームの商品レビューの感情傾向を分析
中国語感情分析タスクで94.8%の精度を達成
テキスト分類
ニュース分類
ニュース記事を自動分類
CLUEニュース分類タスクで65.6%の精度を達成
意味理解
テキストマッチング
2つのテキストの意味的類似性を判断
テキストマッチングタスクで88.1%の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase