Tooka SBERT V2 Large
專為波斯語設計的語義文本相似度和嵌入模型,能將句子映射到密集向量空間,使語義相近的文本在空間中彼此靠近。
文本嵌入
T
PartAI
127
1
Modernbert Base ColBERT
這是一個從answerdotai/ModernBERT-base在MS-MARCO數據集上微調的PyLate模型,用於句子相似度計算和文檔檢索。
文本嵌入 英語
M
Y-J-Ju
88
7
Intention
Apache-2.0
GTE多語言基礎模型是一個密集的句子轉換器,支持多種語言的句子相似度計算和文本嵌入任務。
文本嵌入
Transformers 支持多種語言

I
leeloolee
32
3
Gte Multilingual Base
Apache-2.0
GTE Multilingual Base 是一個多語言的句子嵌入模型,支持超過50種語言,適用於句子相似度計算等任務。
文本嵌入
Transformers 支持多種語言

G
Alibaba-NLP
1.2M
246
Bert Base 1024 Biencoder 64M Pairs
基於MosaicML預訓練的1024序列長度BERT的長上下文雙編碼器,用於句子和段落嵌入
文本嵌入
Transformers 支持多種語言

B
shreyansh26
19
0
Bert Base 1024 Biencoder 6M Pairs
基於MosaicML預訓練的1024序列長度BERT的長上下文雙編碼器,用於生成句子和段落的768維密集向量表示
文本嵌入
Transformers 支持多種語言

B
shreyansh26
24
0
Sentence Transformers Gte Base
這是一個基於sentence-transformers的句子嵌入模型,能夠將句子和段落映射到768維的向量空間,適用於語義搜索和聚類等任務。
文本嵌入
S
embaas
43
0
Multi Qa Mpnet Base Dot V1
這是一個基於sentence-transformers的語義搜索模型,能夠將句子和段落映射到768維的密集向量空間。
文本嵌入
M
model-embeddings
772
1
Semantic Xlmr Bn
針對孟加拉語優化的多語言句子嵌入模型,可將文本映射到768維向量空間
文本嵌入
Transformers 其他

S
afschowdhury
225
1
Test Food
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維的密集向量空間,適用於句子相似度計算和語義搜索等任務。
文本嵌入
Transformers

T
Linus4Lyf
42
0
Laprador Trained
這是一個基於sentence-transformers的句子嵌入模型,能夠將句子和段落映射到768維的向量空間,適用於語義搜索和聚類等任務。
文本嵌入
Transformers

L
gemasphi
31
0
Semanlink All Mpnet Base V2
Apache-2.0
基於句子轉換器的模型,能將句子和段落映射到768維密集向量空間,適用於聚類或語義搜索等任務。
文本嵌入 支持多種語言
S
raphaelsty
15
1
Mcontriever Base Msmarco
這是一個基於sentence-transformers的句子嵌入模型,能將文本映射到768維向量空間,適用於語義搜索和聚類任務。
文本嵌入
Transformers

M
nthakur
195
5
Contriever Base Msmarco
這是將Contriever MSMARCO模型移植到句子轉換器的版本,可將文本映射到768維密集向量空間,適用於語義搜索和聚類任務。
文本嵌入
Transformers

C
nthakur
2,243
2
S PubMedBert MS MARCO SCIFACT
基於PubMedBert優化的句子轉換器模型,專為醫學文獻和科學事實核查任務設計
文本嵌入
Transformers

S
pritamdeka
1,050
5
Eli5 All Mpnet Base V2
這是一個基於sentence-transformers的句子嵌入模型,能將文本映射到768維向量空間,適用於語義搜索和聚類任務。
文本嵌入
Transformers

E
addy88
14
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98