# 旋轉位置嵌入

Modernbert Base Squad2 V0.2
Apache-2.0
基於ModernBERT-base-nli微調的問答模型,支持長上下文處理
問答系統 Transformers
M
Praise2112
42
2
Modernbert Base Ita
Apache-2.0
ModernBERT 是一種現代化的雙向僅編碼器 Transformer 模型(BERT 風格),在 2 萬億英語和代碼數據上進行了預訓練,原生上下文長度高達 8,192 個標記。
大型語言模型 Transformers 支持多種語言
M
DeepMount00
81
10
E5rope Base
MIT
E5-RoPE-基礎版是基於旋轉位置嵌入(RoPE)的嵌入模型,旨在支持長上下文檢索任務。
文本嵌入 英語
E
dwzhu
129
17
Eva02 Tiny Patch14 224.mim In22k
MIT
EVA02是一個視覺Transformer模型,通過掩碼圖像建模在ImageNet-22k上預訓練,適用於圖像分類和特徵提取任務。
圖像分類 Transformers
E
timm
385
1
Eva02 Small Patch14 224.mim In22k
MIT
EVA02特徵/表示模型,通過掩碼圖像建模在ImageNet-22k上預訓練,適用於圖像分類和特徵提取任務。
圖像分類 Transformers
E
timm
705
0
Wav2vec2 Conformer Rope Large 100h Ft
Apache-2.0
基於Librispeech 100小時語音數據微調的Wav2Vec2 Conformer模型,採用旋轉位置嵌入技術
語音識別 Transformers 英語
W
facebook
99
0
Wav2vec2 Conformer Rope Large 960h Ft
Apache-2.0
該模型整合了旋轉位置嵌入技術,基於16kHz採樣的語音音頻,在960小時的LibriSpeech數據上進行了預訓練和精細調優,適用於英語語音識別任務。
語音識別 Transformers 英語
W
facebook
22.02k
10
Gpt J 6b
Apache-2.0
GPT-J 6B是基於Mesh Transformer JAX框架訓練的60億參數自迴歸語言模型,採用與GPT-2/3相同的分詞器。
大型語言模型 英語
G
EleutherAI
297.31k
1,493
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase