# 雙編碼器架構

Vica2 Init
Apache-2.0
ViCA2是一個多模態視覺語言模型,專注於視頻理解和視覺空間認知任務。
視頻生成文本 Transformers 英語
V
nkkbr
30
0
Vica2 Stage2 Onevision Ft
Apache-2.0
ViCA2是一個7B參數規模的多模態視覺語言模型,專注於視頻理解和視覺空間認知任務。
視頻生成文本 Transformers 英語
V
nkkbr
63
0
Hypencoder.2 Layer
Apache-2.0
Hypencoder是一種用於信息檢索的超網絡模型,包含文本編碼器和Hypencoder兩部分,能夠將文本轉換為小型神經網絡並輸出相關性分數。
文本嵌入 Transformers 英語
H
jfkback
18
1
Hypencoder.8 Layer
MIT
Hypencoder是一種用於信息檢索的雙編碼器模型,包含文本編碼器和超網絡(Hypencoder),能夠將文本轉換為小型神經網絡用於計算相關性分數。
文本嵌入 Transformers 英語
H
jfkback
18
1
Gliner Poly Small V1.0
Apache-2.0
GLiNER 是一個靈活的命名實體識別(NER)模型,能夠識別任何實體類型,為傳統 NER 模型和大型語言模型提供了實用替代方案。
序列標註 其他
G
knowledgator
18
14
Dragon Multiturn Query Encoder
其他
Dragon-multiturn是一款專為對話式問答場景設計的檢索器,能處理將會話歷史與當前查詢相結合的對話式查詢。
問答系統 Transformers 英語
D
nvidia
710
59
Nasa Smd Ibm St V2
Apache-2.0
Indus-Retriever是基於nasa-smd-ibm-v0.1編碼器模型微調的雙編碼器句子轉換模型,專為NASA科學任務理事會(SMD)的自然語言處理任務設計,提升信息檢索和智能搜索能力。
文本嵌入 英語
N
nasa-impact
621
10
Zero Shot Explicit Bi Encoder
MIT
基於BERT架構的零樣本文本分類模型,採用顯式訓練方法在UTCD數據集上訓練
文本分類 Transformers 英語
Z
claritylab
31
0
Zero Shot Vanilla Bi Encoder
MIT
基於BERT的雙編碼器模型,專為零樣本文本分類任務設計,在UTCD數據集上訓練
文本分類 Transformers 英語
Z
claritylab
27
0
Abstract Sim Sentence Pubmed
該模型用於將生物醫學文獻中的摘要句子映射到符合描述的句子,專注於句子級別的相似度計算。
文本嵌入 Transformers 英語
A
biu-nlp
26
1
Abstract Sim Query
一個將抽象句子描述映射到符合描述的句子的模型,基於維基百科訓練,採用雙編碼器架構。
文本嵌入 Transformers 英語
A
biu-nlp
53
12
Abstract Sim Sentence
一個將抽象句子描述映射到符合描述的句子的模型,基於維基百科訓練,採用雙編碼器架構。
文本嵌入 Transformers 英語
A
biu-nlp
51
16
Align Base
ALIGN是一個視覺-語言雙編碼器模型,通過對比學習實現圖像與文本表徵的對齊,利用大規模噪聲數據實現先進的跨模態表徵效果。
多模態對齊 Transformers 英語
A
kakaobrain
78.28k
25
Dragon Plus Context Encoder
DRAGON+ 是一個基於BERT架構的密集檢索模型,採用非對稱雙編碼器架構,適用於文本檢索任務。
文本嵌入 Transformers
D
facebook
4,396
39
Dragon Plus Query Encoder
DRAGON+ 是一個基於 BERT 基礎架構的密集檢索模型,初始權重源自 RetroMAE,並在 MS MARCO 語料庫增強數據上訓練而成。
文本嵌入 Transformers
D
facebook
3,918
20
Efficient Splade VI BT Large Doc
高效的SPLADE模型,用於段落檢索,採用雙模型架構(查詢模型和文檔模型分開)
文本嵌入 Transformers 英語
E
naver
100.79k
19
Trans Encoder Bi Simcse Roberta Large
基於RoBERTa-large的無監督句子編碼器,通過自蒸餾和互蒸餾技術訓練,適用於句子相似度計算任務。
文本嵌入 Transformers
T
cambridgeltl
17
0
Distilbert Dot Tas B B256 Msmarco
基於DistilBert的雙編碼器點積評分架構,通過平衡主題感知採樣在MSMARCO-Passage數據集上訓練,適用於密集檢索和候選集重排序
文本嵌入 Transformers 英語
D
sebastian-hofstaetter
3,188
23
Bi Electra Ms Marco German Uncased
基於德語ELECTRA模型微調的雙編碼器,用於德語段落檢索任務
文本嵌入 Transformers
B
svalabs
17
10
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase