C

Chinese Roberta L 4 H 512

uerによって開発
これはRoBERTaアーキテクチャに基づく中国語事前学習言語モデルで、パラメータ規模は8層512隠れユニットであり、様々な中国語自然言語処理タスクに適しています。
ダウンロード数 873
リリース時間 : 3/2/2022

モデル概要

このモデルは中国語RoBERTa小型モデルセットの中型バージョンで、Transformerアーキテクチャを採用し、マスク言語モデリングタスクを通じて中国語コーパスで事前学習されており、テキスト理解、分類などの下流タスクに使用できます。

モデル特徴

多サイズ選択
小型から基本版まで24種類の異なる規模のモデルを提供し、様々な計算リソース要件に対応
中国語最適化
中国語テキスト専用に事前学習されており、中国語NLPタスクで優れた性能を発揮
2段階トレーニング
最初に短いシーケンスでトレーニングし、その後長いシーケンスで微調整することで、異なる長さのテキストに対する処理能力を向上

モデル能力

テキスト特徴抽出
マスク言語モデリング
テキスト分類
感情分析
文マッチング
自然言語推論

使用事例

テキスト理解
感情分析
ユーザーレビューの感情傾向を分析
中国語感情分析タスクで93.4%の精度を達成
ニュース分類
ニュース記事を自動分類
CLUEニュース分類タスクで65.1%の精度を達成
言語推論
自然言語推論
2つの文間の論理関係を判断
CLUE自然言語推論タスクで69.7%の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase