Langcache Crossencoder V1 Ms Marco MiniLM L12 V2
Apache-2.0
基於Transformer架構的CrossEncoder模型,在Quora問題對數據集上微調,用於計算文本對得分,適用於語義相似度和語義搜索任務。
文本分類 英語
L
aditeyabaral-redis
281
0
Reranker Gte Multilingual Base Msmarco Bce Ep 2
基於sentence-transformers庫在msmarco數據集上訓練的交叉編碼器模型,用於文本重排序和語義搜索
文本嵌入 支持多種語言
R
skfrost19
28
0
Col1 210M EuroBERT
Apache-2.0
這是一個基於EuroBERT-210m微調的ColBERT模型,專門用於西班牙語和英語的語義文本相似度計算。
文本嵌入
Safetensors 支持多種語言
C
fjmgAI
16
1
Ruri V3 Reranker 310m Preview
Apache-2.0
這是一個日語通用重排序模型的預覽版本,基於cl-nagoya/ruri-v3-pt-310m基礎模型訓練,專門用於日語文本相關性排序任務。
文本嵌入 日語
R
cl-nagoya
79
0
Reranker Msmarco ModernBERT Base Lambdaloss
Apache-2.0
這是一個從ModernBERT-base微調而來的交叉編碼器模型,用於計算文本對的分數,適用於文本重排序和語義搜索任務。
文本嵌入 英語
R
tomaarsen
89
4
Reranker Msmarco MiniLM L12 H384 Uncased Lambdaloss
Apache-2.0
這是一個基於MiniLM-L12-H384-uncased微調的交叉編碼器模型,用於文本重排序和語義搜索任務。
文本嵌入 英語
R
tomaarsen
1,019
3
Ruri Reranker Stage1 Large
Apache-2.0
Ruri-Reranker是一個基於sentence-transformers的日語文本重排序模型,專門用於優化查詢與文檔的相關性排序。
文本嵌入 日語
R
cl-nagoya
23
1
EEVE Korean Instruct 10.8B V1.0 Grade Retrieval
Apache-2.0
該模型是基於EEVE-韓語指導-10.8B-v1.0微調的,用於評估RAG(檢索增強生成)中針對問題的檢索上下文是否正確,並以'是'或'否'回答。
大型語言模型
Transformers 韓語

E
sinjy1203
1,764
2
Phi3 Rag Relevance Judge Merge
一個用於判斷參考文本與問題相關性的二元分類模型,專為RAG系統優化
大型語言模型
Transformers

P
grounded-ai
21
1
Bloomz 560m Reranking
Openrail
基於Bloomz-560m構建的雙語重排序模型,用於衡量查詢與上下文的語義相關性,支持法語和英語
大型語言模型
Transformers 支持多種語言

B
cmarkea
17
1
All MiniLM L6 V2 GGUF
Apache-2.0
all-MiniLM-L6-v2是一個基於MiniLM架構的輕量級句子嵌入模型,適用於英文文本的特徵提取和句子相似度計算。
文本嵌入 英語
A
leliuga
598
3
E5 Base Mlqa Finetuned Arabic For Rag
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維稠密向量空間,適用於聚類或語義搜索等任務。
文本嵌入
E
OmarAlsaabi
92
5
Silver Retriever Base V1.1
銀色檢索器模型將波蘭語句子或段落編碼為768維稠密向量空間,可用於文檔檢索或語義搜索等任務。
文本嵌入
Transformers 其他

S
ipipan
862
9
Sentence Transformers Alephbertgimmel Small
這是一個基於sentence-transformers的希伯來語句子相似度計算模型,可將文本映射到512維向量空間用於語義搜索和聚類任務
文本嵌入
Transformers 其他

S
imvladikon
39
1
Silver Retriever Base V1
Silver Retriever是一個針對波蘭語的神經檢索模型,專門用於句子相似度和段落檢索任務。
文本嵌入
Transformers 其他

S
ipipan
554
11
Vectorizer V1 S En
由Sinequa開發的向量化器,能夠根據段落或查詢生成嵌入向量,用於句子相似度計算和特徵提取。
文本嵌入
Transformers 英語

V
sinequa
304
0
Rubert Tiny Questions Classifier
MIT
這是一個基於ruBert-tiny的俄語問題分類模型,用於區分精確問題和非精確問題。
文本分類
Transformers 其他

R
Den4ikAI
20
3
Paraphrase Multilingual Mpnet Base V2 Embedding All
Apache-2.0
該模型是基於paraphrase-multilingual-mpnet-base-v2微調的版本,支持英語和德語句子相似度計算,適用於多語言文本嵌入任務。
文本嵌入
Transformers 支持多種語言

P
LLukas22
28
8
Roberta Finetuned City
基於deepset/roberta-base-squad2微調的模型,具體用途未明確說明
大型語言模型
Transformers

R
svo2
19
0
Bert Base Chinese Qa
Gpl-3.0
提供繁體中文的transformers模型及自然語言處理工具
問答系統
Transformers 中文

B
ckiplab
58
7
Distilbert Base Uncased Distilled Squad Int8 Static Inc
Apache-2.0
這是DistilBERT基礎未編碼模型的INT8量化版本,專為問答任務設計,通過訓練後靜態量化優化了模型大小和推理速度。
問答系統
Transformers

D
Intel
1,737
4
Bert Large Uncased Finetuned Squadv1
基於BERT-large模型在SQuADv1數據集上微調的問答模型,採用二階剪枝技術優化
問答系統
Transformers 英語

B
RedHatAI
35
1
Nf Cats
MIT
基於RoBERTa的問答分類模型,用於識別非事實性問題的類別
文本分類
Transformers 英語

N
Lurunchik
245
5
Distilbert Base Cased Distilled Squad Finetuned Squad
Apache-2.0
該模型是基於distilbert-base-cased-distilled-squad微調的版本,適用於問答任務
問答系統
Transformers

D
ms12345
14
0
Deberta Base Finetuned Squad1 Aqa Newsqa
MIT
基於DeBERTa-base模型在SQuAD1、AQA和NewsQA數據集上微調的問答模型
問答系統
Transformers

D
stevemobs
15
0
Deberta Base Combined Squad1 Aqa And Newsqa
MIT
基於DeBERTa-base架構的問答模型,在SQuAD1、AQA和NewsQA數據集上聯合微調
問答系統
Transformers

D
stevemobs
15
0
Distilbert Base Uncased Combined Squad Adversarial
Apache-2.0
該模型是基於distilbert-base-uncased在SQuAD對抗數據集上微調的版本,適用於問答任務。
問答系統
Transformers

D
stevemobs
15
0
Roberta Base Use Qa Bg
MIT
這是一個多語言Roberta模型,可用於生成保加利亞語句子的嵌入向量,訓練靈感來源於Sentence-BERT,教師模型為谷歌的USE模型。
文本嵌入
Transformers 其他

R
rmihaylov
14
0
607 Project Adversarial
一個在 adversarial_qa 數據集上訓練的問答模型,用於回答對抗性問題。
問答系統
Transformers

6
KrishnaAgarwal16
22
0
Sentence BERTino
Apache-2.0
基於sentence-transformers的意大利語句子嵌入模型,可將文本映射到768維向量空間
文本嵌入
Transformers 其他

S
efederici
51
5
Bert Large Uncased Squadv1.1 Sparse 80 1x4 Block Pruneofa
Apache-2.0
這是一個通過知識蒸餾對預訓練的80% 1x4塊稀疏Prune OFA BERT-Large模型進行微調得到的模型,在SQuADv1.1問答任務上表現優異。
問答系統
Transformers 英語

B
Intel
15
1
Linkbert Large
Apache-2.0
LinkBERT-large是基於英文維基百科及書籍語料庫預訓練的改進型BERT模型,通過整合文檔鏈接信息增強跨文檔知識理解能力。
大型語言模型
Transformers 英語

L
michiyasunaga
2,042
12
Distilbert Base Squad2 Custom Dataset
基於Distilbert_Base微調的SQuAD2.0及自定義問答數據集模型,專注於高效問答任務
問答系統
Transformers

D
superspray
17
0
Xlm Roberta Longformer Base 4096
Apache-2.0
基於XLM-R擴展的長序列處理模型,支持最長4096標記的序列處理,適用於多語言任務
大型語言模型
Transformers 其他

X
markussagen
9,499
37
Albert Xxlarge V2 Squad2
基於ALBERT XXLarge架構的問答模型,針對SQuAD V2數據集進行了微調
問答系統
Transformers

A
mfeb
150
2
Dkrr Dpr Nq Retriever
FiD是一種基於知識蒸餾的問答系統模型,通過將閱讀器模型的知識蒸餾到檢索器中,提高問答系統的效率。
問答系統
Transformers

D
castorini
38
0
Distilbert Base Uncased Squad2 With Ner Mit Restaurant With Neg With Repeat
該模型是基於DistilBERT架構,在SQuAD2和MIT Restaurant數據集上微調的版本,支持問答和命名實體識別任務。
序列標註
Transformers 英語

D
andi611
19
0
Bert Base Uncased Squadv1 X1.84 F88.7 D36 Hybrid Filled V1
MIT
這是一個通過nn_pruning庫剪枝優化的問答模型,保留了50%原始權重,在SQuAD v1上微調,F1值達88.72
問答系統
Transformers 英語

B
madlag
30
0
Bert Large Uncased Whole Word Masking Squad2 With Ner Mit Restaurant With Neg With Repeat
該模型是基於bert-large-uncased-whole-word-masking-squad2在squad_v2和mit_restaurant數據集上微調的版本,支持標記分類任務。
序列標註
Transformers 英語

B
andi611
18
0
Distilbert Base Uncased Squad2 With Ner With Neg With Multi With Repeat
基於distilbert-base-uncased-squad2在conll2003數據集上微調的問答與命名實體識別模型
問答系統
Transformers

D
andi611
20
0
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98