Modernbert Base Squad2 V0.2
Apache-2.0
基於ModernBERT-base-nli微調的問答模型,支持長上下文處理
問答系統
Transformers

M
Praise2112
42
2
Modernbert Base Ita
Apache-2.0
ModernBERT 是一種現代化的雙向僅編碼器 Transformer 模型(BERT 風格),在 2 萬億英語和代碼數據上進行了預訓練,原生上下文長度高達 8,192 個標記。
大型語言模型
Transformers 支持多種語言

M
DeepMount00
81
10
E5rope Base
MIT
E5-RoPE-基礎版是基於旋轉位置嵌入(RoPE)的嵌入模型,旨在支持長上下文檢索任務。
文本嵌入 英語
E
dwzhu
129
17
Eva02 Tiny Patch14 224.mim In22k
MIT
EVA02是一個視覺Transformer模型,通過掩碼圖像建模在ImageNet-22k上預訓練,適用於圖像分類和特徵提取任務。
圖像分類
Transformers

E
timm
385
1
Eva02 Small Patch14 224.mim In22k
MIT
EVA02特徵/表示模型,通過掩碼圖像建模在ImageNet-22k上預訓練,適用於圖像分類和特徵提取任務。
圖像分類
Transformers

E
timm
705
0
Wav2vec2 Conformer Rope Large 100h Ft
Apache-2.0
基於Librispeech 100小時語音數據微調的Wav2Vec2 Conformer模型,採用旋轉位置嵌入技術
語音識別
Transformers 英語

W
facebook
99
0
Wav2vec2 Conformer Rope Large 960h Ft
Apache-2.0
該模型整合了旋轉位置嵌入技術,基於16kHz採樣的語音音頻,在960小時的LibriSpeech數據上進行了預訓練和精細調優,適用於英語語音識別任務。
語音識別
Transformers 英語

W
facebook
22.02k
10
Gpt J 6b
Apache-2.0
GPT-J 6B是基於Mesh Transformer JAX框架訓練的60億參數自迴歸語言模型,採用與GPT-2/3相同的分詞器。
大型語言模型 英語
G
EleutherAI
297.31k
1,493
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98