X

Xlm Roberta Longformer Base 4096

Peltarionによって開発
XLM - RoBERTaを拡張した長シーケンスモデルで、最大4096トークンのシーケンス処理をサポートし、多言語タスクに適しています。
ダウンロード数 64
リリース時間 : 3/2/2022

モデル概要

XLM - R長シーケンスモデルはXLM - RoBERTaの拡張版で、特殊な事前学習方式により、より長いシーケンス処理をサポートしています(オリジナル版は512トークンのみサポート)。このモデルは多言語質問応答などのタスクで優れた性能を発揮し、特に低資源言語のシナリオに適しています。

モデル特徴

超長コンテキストサポート
最大4096トークンのシーケンス処理をサポートします(オリジナルのXLM - Rは512トークンのみサポート)
低資源言語の最適化
各言語ごとに個別に事前学習する必要がなく、特にスウェーデン語などの低資源言語のシナリオに適しています。
高効率学習方式
勾配累積技術(64ステップ)と16ビット精度学習を採用し、メモリ使用量を削減します。

モデル能力

長テキスト理解
多言語質問応答
言語間転移学習

使用事例

質問応答システム
多言語長文書質問応答
長いコンテキストを含む言語間の質問応答タスクを処理します。
テキスト理解
低資源言語文書分析
スウェーデン語などの低資源言語の長文書に対して意味解析を行います。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase