E

Efficient Mlm M0.15 801010

princeton-nlpによって開発
プレレイヤー正規化技術を採用したRoBERTaモデル、マスク言語モデリングにおけるマスク比率の影響を研究
ダウンロード数 114
リリース時間 : 4/22/2022

モデル概要

このモデルはRoBERTaアーキテクチャを改良した事前学習言語モデルで、マスク言語モデリングタスクにおけるマスク内容の比率がモデル性能に与える影響を主に研究しています。HuggingFaceがまだサポートしていないプレレイヤー正規化技術を採用しています。

モデル特徴

プレレイヤー正規化技術
HuggingFace公式ライブラリがまだサポートしていないプレレイヤー正規化アーキテクチャを採用、トレーニング安定性の向上が期待
マスク比率研究
マスク言語モデリングにおける15%のマスク比率が最適かどうかを専門に研究
HuggingFace互換
特殊なアーキテクチャを使用しているが、カスタムコードによりHuggingFaceエコシステムと互換性を保持

モデル能力

マスク言語モデリング
テキスト表現学習
シーケンス分類

使用事例

自然言語処理研究
マスク比率最適化研究
異なるマスク比率が事前学習言語モデルの性能に与える影響を研究するために使用
テキスト理解
テキスト分類
ファインチューニングにより様々なテキスト分類タスクに使用可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase