Clip Backdoor Rn50 Cc3m Badnets
MIT
這是一個預訓練的後門注入模型,用於研究對比語言圖像預訓練中的後門樣本檢測。
文本生成圖像 英語
C
hanxunh
16
0
Vit SO400M 16 SigLIP I18n 256
Apache-2.0
一個在多語言WebLI數據集上訓練的SigLIP(語言圖像預訓練的Sigmoid損失)模型,支持多語言圖像分類任務。
文本生成圖像
V
timm
82
2
Code
MIT
一種用於檢測深度偽造圖像的視覺變換器模型,通過對比學習和全局-局部相似性分析實現高精度偽造檢測。
圖像分類
Transformers

C
aimagelab
515
2
Bloomz 560m Retriever V2
Openrail
基於Bloomz-560m-dpo-chat模型的雙編碼器,用於將文章和查詢映射到同一向量空間,支持法語和英語的跨語言檢索。
文本嵌入
Transformers 支持多種語言

B
cmarkea
17
2
Japanese Clip Vit B 32 Roberta Base
日語版本的CLIP模型,能夠將日語文本和圖像映射到相同的嵌入空間,適用於零樣本圖像分類、文本-圖像檢索等任務。
文本生成圖像
Transformers 日語

J
recruit-jp
384
9
Setfit All MiniLM L6 V2 Sst2 32 Shot
Apache-2.0
這是一個在sst2數據集上訓練的SetFit模型,用於英文文本分類任務,採用高效的少樣本學習技術訓練。
文本分類 英語
S
tomaarsen
23
7
Mmlw Retrieval Roberta Base
Apache-2.0
MMLW(我必須得到更好的消息)是波蘭語的神經文本編碼器,針對信息檢索任務進行了優化,能夠將查詢和段落轉換為768維向量。
文本嵌入
Transformers 其他

M
sdadas
408
1
Vit H 14 CLIPA 336 Datacomp1b
Apache-2.0
CLIPA-v2模型,一種高效的對比式圖文模型,專注於零樣本圖像分類任務。
文本生成圖像
V
UCSC-VLAA
493
4
Vit B 16 SigLIP I18n 256
Apache-2.0
一個在WebLI數據集上訓練的SigLIP(用於語言-圖像預訓練的Sigmoid損失)模型,適用於零樣本圖像分類任務。
文本生成圖像
V
timm
87.92k
3
Vit SO400M 14 SigLIP
Apache-2.0
一個在WebLI數據集上訓練的SigLIP(用於語言-圖像預訓練的Sigmoid損失)模型,適用於零樣本圖像分類任務。
文本生成圖像
V
timm
79.55k
17
Wrapresentations
WRAPresentations是一款先進的句子轉換器模型,專為推特論點挖掘設計,能將推文映射為'理由'、'陳述'、'通知'和'無意義'四種類別。
文本嵌入
Transformers 英語

W
TomatenMarc
268
2
All Mpnet Base V2
Apache-2.0
基於MPNet架構的句子嵌入模型,將文本映射到384維向量空間,適用於語義搜索和句子相似度任務
文本嵌入 英語
A
3gg
15
0
All Mpnet Base V2
Apache-2.0
基於MPNet架構的句子嵌入模型,可將文本映射到768維向量空間,適用於語義搜索和文本相似度任務
文本嵌入 英語
A
diptanuc
138
1
Clipmd
ClipMD是基於OpenAI的CLIP模型開發的醫療圖文匹配模型,採用滑動窗口文本編碼器,專門用於醫療領域的圖像分類任務。
圖像生成文本
Transformers 英語

C
Idan0405
165
8
Micse
Apache-2.0
miCSE是一個專為句子相似度計算而設計的低樣本量句子嵌入模型,通過注意力模式對齊和正則化自注意力分佈實現高效的樣本學習。
文本嵌入
Transformers 英語

M
sap-ai-research
30
8
Xclip Base Patch16 Ucf 8 Shot
MIT
X-CLIP是CLIP的極簡擴展,用於通用視頻語言理解,以對比方式在(視頻,文本)對上訓練,適用於零樣本、少樣本或全監督視頻分類以及視頻-文本檢索等任務。
視頻處理
Transformers 英語

X
microsoft
16
0
Xclip Base Patch16 Hmdb 16 Shot
MIT
X-CLIP是CLIP的擴展版本,用於通用視頻語言理解,支持視頻分類和視頻-文本檢索任務。
視頻處理
Transformers 英語

X
microsoft
49
0
Xclip Base Patch16 Hmdb 2 Shot
MIT
X-CLIP是CLIP的擴展版本,用於通用視頻語言理解,通過對比學習在視頻和文本對上訓練,支持零樣本、少樣本和全監督的視頻分類任務。
文本生成視頻
Transformers 英語

X
microsoft
19
0
All Mpnet Base V2 Feature Extraction
Apache-2.0
基於MPNet架構的句子嵌入模型,可將文本映射到768維向量空間,適用於語義搜索和文本相似度任務
文本嵌入 英語
A
guidecare
4,539
0
Mcontriever Base Msmarco
這是一個基於sentence-transformers的句子嵌入模型,能將文本映射到768維向量空間,適用於語義搜索和聚類任務。
文本嵌入
Transformers

M
nthakur
195
5
Minilm L6 Keyword Extraction
其他
這是一個基於MiniLM架構的句子嵌入模型,能將文本映射到384維向量空間,適用於語義搜索和聚類任務。
文本嵌入 英語
M
valurank
13.19k
13
All MiniLM L6 V2
Apache-2.0
這是一個基於sentence-transformers的句子嵌入模型,能將文本映射到384維向量空間,適用於語義搜索和聚類任務。
文本嵌入 英語
A
obrizum
1,647
5
All Mpnet Base V2
Apache-2.0
這是一個基於MPNet架構的句子嵌入模型,能將句子和段落映射到768維的密集向量空間,適用於語義搜索、聚類等任務。
文本嵌入 英語
A
obrizum
34
1
All MiniLM L6 V2
Apache-2.0
基於MiniLM架構的輕量級句子嵌入模型,可將文本映射到384維向量空間,適用於語義搜索和聚類任務
文本嵌入 英語
A
optimum
171.02k
18
Sup SimCSE VietNamese Phobert Base
SimeCSE_Vietnamese是基於SimCSE的越南語句嵌入模型,使用PhoBert作為預訓練語言模型,適用於無標註和有標註數據。
文本嵌入
Transformers 其他

S
VoVanPhuc
25.51k
22
Declutr Base
Apache-2.0
DeCLUTR-base是一個通用的句子編碼器模型,通過深度對比學習進行無監督訓練,用於生成高質量的文本表示。
文本嵌入 英語
D
johngiorgi
99
7
Contriever Msmarco
基於Contriever預訓練模型的微調版本,專為密集信息檢索任務優化,採用對比學習方法訓練
文本嵌入
Transformers

C
facebook
24.08k
27
Wav2vec Osr
Apache-2.0
為The Sound Of AI開源研究小組的語音轉文本模塊微調的Facebook wav2vec2模型
語音識別
Transformers 英語

W
iamtarun
22
1
Multilingual SimCSE
一種利用平行語言對訓練的對比學習模型,通過不同語言的平行句對將文本映射到相同向量空間
文本嵌入
Transformers

M
WENGSYX
84
5
Unsup Simcse Bert Base Uncased
基於BERT架構的無監督對比學習模型,通過簡單有效的對比學習框架提升句子嵌入質量
文本嵌入
U
princeton-nlp
9,546
5
Simcse Chinese Roberta Wwm Ext
基於簡單對比學習的簡體中文語句嵌入編碼模型,使用中文RoBERTa WWM擴展版作為預訓練模型。
文本嵌入
Transformers

S
cyclone
188
32
Declutr Small
Apache-2.0
DeCLUTR-small是一個基於深度對比學習的通用句子編碼器模型,用於生成高質量的句子嵌入表示。
文本嵌入 英語
D
johngiorgi
56
3
All Mpnet Base V2
MIT
這是一個基於MPNet架構的句子嵌入模型,能將文本映射到768維向量空間,適用於語義搜索和句子相似度任務。
文本嵌入 英語
A
navteca
14
1
Sup Simcse Roberta Large
基於RoBERTa-large的有監督SimCSE模型,用於句子嵌入和特徵提取任務。
文本嵌入
S
princeton-nlp
276.47k
25
Coder Eng
Apache-2.0
CODER是一種知識增強型跨語言醫學術語嵌入模型,專注於醫學術語規範化任務。
知識圖譜
Transformers 英語

C
GanjinZero
4,298
4
Coder All
Apache-2.0
CODER 是一個融合知識的跨語言醫學術語嵌入模型,用於醫學術語標準化。
知識圖譜
Transformers 英語

C
GanjinZero
20
3
Umlsbert ENG
Apache-2.0
CODER是一個基於知識注入的跨語言醫學術語嵌入模型,專注於醫學術語標準化任務。
知識圖譜
Transformers 英語

U
GanjinZero
3,400
13
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98