A

Albert Large Chinese Cluecorpussmall

Developed by uer
UER-pyフレームワークで事前学習された中国語ALBERTモデルで、CLUECorpusSmallコーパスで訓練されており、中国語テキスト処理タスクに適しています。
Downloads 17
Release Time : 3/2/2022

Model Overview

このモデルは軽量なALBERT中国語版で、主に中国語テキストのマスク言語モデリングと特徴抽出タスクに使用されます。

Model Features

軽量設計
ALBERTアーキテクチャを採用し、パラメータ共有技術によりモデルパラメータを削減し、性能を維持しながら計算リソース要件を低減します。
中国語最適化
中国語テキストに特化して事前学習され、CLUECorpusSmallコーパスを使用し、中国語の言語特性に適応しています。
多段階訓練
2段階の訓練戦略を採用し、まず短いシーケンスで訓練し、その後長いシーケンスで微調整を行い、モデル性能を向上させます。

Model Capabilities

テキスト特徴抽出
マスク言語予測
中国語テキスト理解

Use Cases

テキスト補完
中国語テキストマスク予測
[MASK]でマークされた中国語単語を予測
例文'中国の首都は[MASK]京'が'北京'と予測され、精度85.28%
テキスト特徴抽出
中国語テキスト表現学習
中国語テキストのベクトル表現を取得
分類、クラスタリングなどの下流タスクに使用可能
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase