L

Language Perceiver

deepmindによって開発
BERTに基づくマスク言語モデリングタスクで事前学習され、UTF - 8バイト入力をサポートするマルチモーダルTransformerモデル
ダウンロード数 9,840
リリース時間 : 3/2/2022

モデル概要

パーサーIOは汎用的なTransformerアーキテクチャで、テキスト、画像、音声などの様々なモーダリティに適用できます。この言語モデルは生のバイトで直接学習され、トークナイザーが不要で、マスク言語モデリングタスクをサポートします。

モデル特徴

バイトレベルの入力処理
UTF - 8バイトを直接処理し、トークナイザーや固定語彙表が不要
マルチモーダルアーキテクチャ
基本アーキテクチャは画像、音声などの他のモーダリティに拡張可能
効率的なアテンションメカニズム
潜在ベクトルを通じて入力規模に依存しない計算複雑度を実現

モデル能力

テキスト特徴抽出
マスク単語予測
下流タスクの微調整

使用事例

自然言語処理
テキスト補完
マスクされたテキスト部分を予測
サンプルでは「欠落部分」がマスクされた単語を成功に予測
テキスト分類
微調整により感情分析などの分類タスクに使用
GLUEベンチマークテストの平均スコア81.8
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase