Japanese Reranker Tiny V2
MIT
這是一個非常小巧且快速的日語重排序模型,適用於提升RAG系統的精度,在CPU或邊緣設備上也能高效運行。
文本嵌入 日語
J
hotchpotch
339
3
Japanese Reranker Xsmall V2
MIT
這是一個非常小巧且快速的日語重排序模型,適用於提升RAG系統的精度。
文本嵌入 日語
J
hotchpotch
260
1
Ruri V3 Reranker 310m
Apache-2.0
基於ModernBERT-Ja構建的日語通用重排序模型,具有頂尖性能表現和長序列處理能力
文本嵌入 日語
R
cl-nagoya
1,100
5
Ruri Reranker Large
Apache-2.0
琉璃重排序器是一個日語通用重排序模型,基於Sentence Transformers架構,專門用於日語文本相關性排序任務。
文本嵌入 日語
R
cl-nagoya
2,538
11
Ruri Reranker Base
Apache-2.0
日語通用重排序模型,用於提升日語文本檢索的相關性排序效果
文本嵌入 日語
R
cl-nagoya
1,100
4
Ruri Reranker Stage1 Base
Apache-2.0
瑠璃重排序器是一個基於Transformer架構的日語文本重排序模型,專門用於優化檢索結果的排序質量。
文本嵌入 日語
R
cl-nagoya
26
0
Ruri Reranker Stage1 Small
Apache-2.0
琉璃重排序器是一個日語通用重排序模型,專門用於提升日語文本檢索結果的相關性排序。小型版本在保持高性能的同時具有更小的參數量。
文本嵌入 日語
R
cl-nagoya
25
0
Japanese Reranker Cross Encoder Base V1
MIT
這是一個基於日語訓練的Reranker(CrossEncoder)模型,用於文本相關性排序任務。
文本嵌入 日語
J
hotchpotch
750
1
Japanese Bge Reranker V2 M3 V1
MIT
這是一個日語Reranker(交叉編碼器)模型,用於文本排序任務,具有24層和1024隱藏層大小。
文本嵌入 日語
J
hotchpotch
1,151
15
Japanese Reranker Cross Encoder Small V1
MIT
這是一個日語訓練的Reranker(交叉編碼器)模型,用於文本排序任務。
文本嵌入 日語
J
hotchpotch
209
3
Japanese Reranker Cross Encoder Xsmall V1
MIT
這是一個日語訓練的Reranker(交叉編碼器)模型,用於文本排序任務。
文本嵌入 日語
J
hotchpotch
7,041
7
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98