R

Roberta Base Wechsel Chinese

benjaminによって開発
WECHSEL手法で訓練されたRoBERTa中国語モデル。英語から中国語への効率的な言語間移行を実現します。
ダウンロード数 16
リリース時間 : 3/2/2022

モデル概要

このモデルはWECHSEL手法で訓練され、サブワード埋め込みを効果的に初期化することで、単言語モデルの言語間移行を実現します。特に中国語の自然言語処理タスクに適しています。

モデル特徴

効率的な言語間移行
WECHSEL手法を使用して、英語から中国語への効率的なパラメータ移行を実現し、訓練コストを大幅に削減します。
優れた性能
中国語のNLIとNERタスクで、従来の手法で訓練されたモデルよりも優れた性能を発揮します。
低リソース最適化
低リソース言語のモデル移行に特に適しており、訓練に必要な計算リソースを削減します。

モデル能力

自然言語理解
テキスト分類
固有表現認識

使用事例

自然言語処理
中国語テキスト分類
中国語テキストの分類タスクを行います。
NLIタスクで78.32点を達成しました。
中国語固有表現認識
中国語テキスト中の固有表現を認識します。
NERタスクで80.55点を達成しました。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase