X

Xlm Roberta Longformer Base 4096

markussagenによって開発
XLM - Rを拡張した長シーケンス処理モデルで、最大4096トークンのシーケンス処理をサポートし、多言語タスクに適しています。
ダウンロード数 9,499
リリース時間 : 3/2/2022

モデル概要

このモデルは、Longformerの事前学習スキームを通じてXLM - RoBERTaのシーケンス処理能力を拡張し、低リソース言語に対する高効率な長テキスト処理ソリューションを提供することを目的としています。

モデル特徴

超長シーケンス処理
4096トークンのシーケンス長をサポートします(元のXLM - Rは512のみサポート)。長文書の処理に適しています。
低リソース言語の最適化
各言語に対して個別に事前学習する必要がなく、特にスウェーデン語などの低リソース言語のサポートを最適化しています。
高効率学習スキーム
勾配累積(64ステップ)と16ビット精度学習を採用し、メモリ使用量を削減します。

モデル能力

長テキスト理解
多言語質問応答
異言語間転移学習

使用事例

質問応答システム
多言語文書の質問応答
長文書における異言語間の質問応答タスクを処理します。
テキスト分析
低リソース言語の処理
スウェーデン語などの低リソース言語の長テキストを分析します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase