A

Albert Large V1

albertによって開発
ALBERTは英語コーパスで事前学習された軽量版のBERTバリアントで、パラメータ共有によりメモリ使用量を削減し、マスク言語モデリングと文順予測タスクをサポートします。
ダウンロード数 979
リリース時間 : 3/2/2022

モデル概要

このモデルは自己教師付き方式でBookCorpusと英語版ウィキペディアで事前学習され、自然言語処理タスクの特徴抽出と下流タスクの微調整に主に使用されます。

モデル特徴

パラメータ共有アーキテクチャ
すべてのTransformer層が同じパラメータを共有し、モデルサイズを大幅に削減します(BERT - largeの1/18のみ)
双タスク事前学習
マスク言語モデリング(MLM)と文順予測(SOP)を同時に行い、意味理解能力を強化します
軽量設計
128次元の単語埋め込みと1024次元の隠れ層のバランス設計で、性能と効率を両立します

モデル能力

テキスト特徴抽出
マスク単語予測
文関係判断
下流タスク微調整

使用事例

テキスト理解
欠損単語補完
マスクされた単語を予測します。例:'Hello I'm a [MASK] model'
「modeling」、「modelling」などの合理的な予測を出力できます
教育アプリケーション
読解システム
SQuADデータセットで微調整した後、質問応答システムに使用できます
V1バージョンはSQuAD1.1で90.6/83.9(F1/EM)に達します
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase