Nystromformer 512
N
Nystromformer 512
Developed by uw-madison
Nyström法に基づいて最適化された効率的なTransformerモデルで、長文シーケンスタスクの処理に使用
Downloads 1,570
Release Time : 3/2/2022
Model Overview
Nyströmformerは、Nyström法を用いて標準的な自己注意機構を近似することで計算複雑度を大幅に削減し、長文シーケンスタスクを効率的に処理できるように改良されたTransformerモデルです。
Model Features
効率的な自己注意機構
Nyström法を用いて標準的な自己注意機構を近似し、複雑度をO(n²)からO(n)に削減
長文シーケンス処理能力
数千のトークンを含む長文シーケンスタスクに特に適している
優れた性能
GLUEベンチマークテストと長文シーケンスアリーナ(LRA)ベンチマークテストで優れた結果を発揮
Model Capabilities
テキスト補完
言語モデリング
長文テキスト処理
Use Cases
自然言語処理
テキスト補完
テキストの欠落部分を予測して補完
例に示すように、'パリはフランスの首都である'を正確に予測可能
長文ドキュメント分析
長文ドキュメントの内容を処理・分析
最適化された注意機構により、長文シーケンス入力を効果的に処理可能
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98