M

Minirbt H256

Developed by hfl
MiniRBTは知識蒸留技術に基づく中国語小型事前学習モデルで、全単語マスキング技術を組み合わせ、様々な中国語自然言語処理タスクに適しています。
Downloads 225
Release Time : 11/14/2022

Model Overview

MiniRBTは知識蒸留ツールTextBrewerで開発された中国語小型事前学習モデルで、全単語マスキング技術と知識蒸留技術により最適化され、中国語テキスト処理タスクに適しています。

Model Features

知識蒸留技術
TextBrewerツールを使用した知識蒸留により、モデル性能を最適化。
全単語マスキング技術
全単語マスキング(Whole Word Masking)技術を採用し、中国語テキストの理解能力を向上。
軽量化設計
モデル規模が小さく、リソースが限られた環境に適しています。

Model Capabilities

中国語テキスト理解
テキスト分類
固有表現認識
質問応答システム

Use Cases

自然言語処理
テキスト分類
中国語テキストの分類タスクに使用、感情分析、トピック分類など。
固有表現認識
中国語テキスト中の固有表現(人名、地名、組織名など)を識別。
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase