M

Mrt5 Large

stanfordnlpによって開発
MrT5はByT5を改良した効率的なバイトレベルの言語モデルで、動的トークン統合技術により入力シーケンス長を約50%短縮
ダウンロード数 33
リリース時間 : 3/23/2025

モデル概要

MrT5はByT5の効率的な改良版で、エンコーダにトークン削除メカニズムを統合し動的に入力シーケンス長を短縮、バイトレベルモデルにより効率的なソリューションを提供

モデル特徴

動的トークン統合
学習可能な削除ゲート機構によりトークンの保持・削除を動的に決定、シーケンス長を効果的に短縮
効率的なバイト処理
UTF-8バイトストリームを直接処理、トークナイザ不要で多言語処理をサポート
ソフト削除トレーニング
softmax1アテンションメカニズムとPIコントローラにより安定した削除率制御を実現

モデル能力

多言語テキスト生成
シーケンス間変換
効率的なバイトレベル処理

使用事例

学術研究
言語モデル効率性研究
動的トークン統合がモデル効率に与える影響を研究
シーケンス長が平均50%短縮
自然言語処理
多言語テキスト生成
15言語のテキスト生成タスクをサポート
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase