Reranker Bert Tiny Gooaq Bce Tanh V3
Apache-2.0
這是一個基於BERT-tiny微調的交叉編碼器模型,用於計算文本對的相似度分數,適用於語義搜索、文本分類等任務。
文本嵌入 英語
R
cross-encoder-testing
1,962
0
Reranker Bert Tiny Gooaq Bce Tanh V4
Apache-2.0
這是一個從bert-tiny微調而來的交叉編碼器模型,用於計算文本對的相似度分數,適用於語義文本相似度、語義搜索等任務。
文本嵌入 英語
R
cross-encoder-testing
1,971
0
Reranker Bert Tiny Gooaq Bce
Apache-2.0
這是一個從bert-tiny微調而來的交叉編碼器模型,用於計算文本對的相似度分數,適用於語義文本相似度、語義搜索等多種任務。
文本嵌入 英語
R
cross-encoder-testing
37.19k
0
Finetune Embedding All MiniLM L6 V2 Geotechnical Test V4
一個用於句子相似度計算的預訓練模型,能夠將句子轉換為高維向量空間中的嵌入表示,並計算它們之間的語義相似度。
文本嵌入
F
GbrlOl
20
1
Lightblue.lb Reranker 0.5B V1.0 GGUF
一個輕量級的文本排序模型,適用於信息檢索和文檔排序任務。
大型語言模型
L
DevQuasar
66
0
Distilbert Turkish Sentence Similarity
基於DistilBERT架構的土耳其語句子相似度計算模型
文本嵌入
Transformers 其他

D
umarigan
45
2
Opensearch Neural Sparse Encoding V2 Distill
Apache-2.0
OpenSearch神經稀疏編碼模型v2蒸餾版是一個高效的學習型稀疏檢索模型,專為OpenSearch設計,能夠將查詢和文檔編碼為30522維稀疏向量。
文本嵌入
Transformers 英語

O
opensearch-project
4,964
5
Bge Reranker V2 M3 Onnx O4
Apache-2.0
BGE-RERANKER-V2的ONNX O4版本是一個經過優化的文本重排序模型,支持多語言文本對的相關性評分。
文本分類
Transformers

B
hooman650
39
5
Hecross
Apache-2.0
這是一個用於希伯來語的交叉編碼器模型,支持零樣本分類任務。
文本分類
Transformers 其他

H
HeTree
22
0
Bge Small En V1.5 Onnx Q
Apache-2.0
BAAI/bge-small-en-v1.5模型的量化ONNX版本,用於文本分類和相似性搜索。
文本嵌入
Transformers

B
Qdrant
329.03k
1
Mmlw Roberta Base
Apache-2.0
基於RoBERTa架構的波蘭語句子嵌入模型,專注於句子相似度計算和特徵提取任務。
文本嵌入
Transformers 其他

M
sdadas
106.30k
3
Tao 8k
Apache-2.0
tao-8k-origin 是一個專注於句子相似度計算的模型,支持多種相似度度量方式,並在多箇中文評測數據集上表現出色。
文本嵌入 中文
T
Amu
639
46
Wikimedical Sent Biobert
基於BioBERT的句子轉換模型,專門針對醫學維基百科內容進行優化,用於句子相似度計算
文本嵌入
Transformers

W
nuvocare
118
3
Simcse Roberta Base Zh
MIT
SimCSE(監督版)是一個基於監督學習的中文句子相似度計算模型,通過對比學習優化句子嵌入表示。
文本嵌入
Transformers 中文

S
hellonlp
30
1
Gujarati Sentence Similarity Sbert
這是一個基於STS數據集微調的古吉拉特語SBERT模型,用於句子相似度計算。
文本嵌入
Transformers 其他

G
l3cube-pune
44
1
Cross Encoder Umberto Stsb
基於Umberto架構的意大利語句子相似度計算交叉編碼器模型
文本嵌入
Transformers 其他

C
efederici
34
0
Demo
Apache-2.0
基於bert-base-uncased在GLUE MRPC數據集上微調的文本分類模型
文本分類
Transformers 英語

D
junzai
15
0
Roberta Large Sts B
基於RoBERTa-large模型在STS-B數據集上微調的文本相似度計算模型
文本嵌入
R
SparkBeyond
19
0
Stsb M Mt Es Distilbert Base Uncased
這是一個測試模型,通過使用stsb_multi_mt中的西班牙語數據集進行微調,用於語義文本相似度任務。
文本嵌入 西班牙語
S
eduardofv
37
2
Roberta Base Ca Cased Sts
Apache-2.0
基於RoBERTa架構的加泰羅尼亞語語義文本相似度模型,專為評估文本相似度而設計
文本分類
Transformers 其他

R
projecte-aina
147
1
Electricidad Small Finetuned Xnli Es
MIT
這是一個基於西班牙語的預訓練模型,專門針對跨語言自然語言推理任務進行了微調。
大型語言模型
Transformers 支持多種語言

E
mrm8488
18
2
Full Sentence Distillroberta3
基於Sentence-Transformers的句子相似度計算模型,採用RoBERTa架構和均值池化方式
文本嵌入
F
osanseviero
18
2
Bert Base Uncased Mnli
這是一個基於bert-base-uncased預訓練模型並在MultiNLI數據集上微調的文本分類模型
文本分類 英語
B
ishan
2,506
2
Bert Base Cased Finetuned Qqp
Apache-2.0
基於bert-base-cased在GLUE QQP數據集上微調的文本分類模型,用於比較fnet-base與bert-base-cased的性能差異
文本分類
Transformers 英語

B
gchhablani
255
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98