P

Prunedbert L12 H256 A4 Finetuned

eli4sによって開発
BERTアーキテクチャに基づく軽量モデルで、知識蒸留技術で事前学習され、隠れ層の次元は256、4つのアテンションヘッドを備えています。
ダウンロード数 16
リリース時間 : 3/2/2022

モデル概要

このモデルはbert-base-uncasedをプルーニングし、知識蒸留でファインチューニングした軽量版で、マスク言語モデリングタスクに適しています。

モデル特徴

軽量設計
隠れ層の次元は256で、BERTの3分の1しかなく、モデルがより軽量です。
知識蒸留
知識蒸留技術を使用してbert-base-uncasedモデルから知識を転移し、性能を維持しながらモデルサイズを削減します。
プルーニング初期化
モデルの重みはbert-base-uncasedモデルの重みをプルーニングして初期化され、モデル構造を最適化します。
マルチロス関数ファインチューニング
マルチロス関数を使用して知識蒸留のファインチューニングを行い、モデルの性能を向上させます。

モデル能力

マスク言語予測
テキスト補完
意味理解

使用事例

自然言語処理
テキスト補完
文中のマスクされた語彙を予測し、テキストの自動補完に使用します。
マスクされた語彙を正確に予測でき、テキスト処理の効率を向上させます。
意味分析
マスク言語モデリングタスクを通じて、文の意味を理解します。
文の意味情報を効果的に捕捉でき、下流のNLPタスクに適しています。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase