R

Rbt4 H312

Developed by hfl
MiniRBTは知識蒸留技術に基づいて開発された中国語小型事前学習モデルで、全単語マスキング技術を用いて学習効率を最適化しています。
Downloads 34
Release Time : 11/14/2022

Model Overview

MiniRBTは知識蒸留技術によって圧縮された中国語事前学習モデルで、様々な自然言語処理タスクに適用可能であり、効率的なテキスト理解能力を提供することを目的としています。

Model Features

知識蒸留技術
TextBrewerツールを使用した知識蒸留により、性能を維持しながらモデルサイズを縮小
全単語マスキング技術
Whole Word Masking技術を採用し、中国語テキストの事前学習効果を向上
効率的な推論
小型化設計により、モデルの推論速度が向上し、リソース消費が低減

Model Capabilities

テキスト理解
テキスト分類
固有表現認識
質問応答システム

Use Cases

自然言語処理
中国語テキスト分類
ニュース分類、感情分析などのテキスト分類タスクに利用可能
情報抽出
固有表現認識、関係抽出などのタスクに適用可能
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase