A

Albert Base Chinese Cluecorpussmall

uerによって開発
CLUECorpusSmallで事前学習された中国語ALBERTモデルで、UER-pyフレームワークでトレーニングされ、中国語テキスト処理タスクに適しています。
ダウンロード数 7,203
リリース時間 : 3/2/2022

モデル概要

これは軽量な中国語事前学習言語モデルで、ALBERTアーキテクチャに基づき、中国語テキストに特化して最適化されており、様々な自然言語処理タスクに使用できます。

モデル特徴

軽量設計
ALBERTアーキテクチャはパラメータ共有によりモデルの軽量化を実現し、メモリ消費と計算需要を低減します。
中国語最適化
中国語テキストに特化して事前学習されており、中国語タスクで優れた性能を発揮します。
2段階トレーニング
最初に128シーケンス長でトレーニングし、その後512シーケンス長で微調整し、モデル性能を向上させます。

モデル能力

テキスト特徴抽出
マスク言語予測
中国語テキスト理解

使用事例

テキスト補完
地理知識補完
'中国の首都は[MASK]京'のような地理知識文を補完
首都として'北京'を正確に予測できる
テキスト特徴抽出
中国語テキスト表現
下流タスク用に中国語テキストのベクトル表現を取得
分類、クラスタリングなどのタスクに使用可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase