A

Albert Base V1

albertによって開発
ALBERTはTransformerアーキテクチャに基づく軽量級事前学習言語モデルで、自己教師付き学習により英語テキストで学習され、パラメータ共有の特性を持ち、メモリ使用量を削減します。
ダウンロード数 18.34k
リリース時間 : 3/2/2022

モデル概要

このモデルはマスク言語モデリングと文順予測の目標を用いて事前学習され、テキスト分類や質問応答などの下流タスクの微調整に適しています。

モデル特徴

パラメータ共有アーキテクチャ
すべてのTransformer層が重みを共有し、メモリ使用量を大幅に削減します
軽量級設計
基礎版はわずか1100万パラメータで、リソースが限られたシナリオに適しています
双方向コンテキスト理解
マスク言語モデリングによりテキストの双方向表現を学習します

モデル能力

テキスト特徴抽出
マスク語彙予測
文順判断
下流タスク微調整

使用事例

テキスト理解
シーケンス分類
感情分析、トピック分類などのタスク
SST - 2感情分析タスクで90.3%の正解率を達成
質問応答システム
テキストに基づく質問応答タスク
SQuAD1.1でF1スコア89.3
言語モデリング
テキスト補完
マスクされた語彙を予測する
例では合理的なコンテキスト関連語彙を予測できることが示されています
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase