Qwen3 Reranker 4B W4A16 G128
Apache-2.0
これはQwen/Qwen3-Reranker-4BをGPTQ量子化した成果で、VRAM使用量を大幅に削減しました。
大規模言語モデル
Transformers

Q
boboliu
157
1
Bge Reranker Ft
これはBAAI/bge-reranker-baseからファインチューニングされたクロスエンコーダーモデルで、テキストペアのスコアリングに使用され、テキスト再ランキングやセマンティック検索タスクに適しています。
テキスト埋め込み
B
foochun
70
0
Reranker ModernBERT Base Gooaq 1 Epoch 1995000
Apache-2.0
これはModernBERT-baseからファインチューニングされたクロスエンコーダーモデルで、テキストペアのスコア計算に使用され、テキスト再ランキングや意味検索タスクに適しています。
テキスト埋め込み 英語
R
ayushexel
30
0
Reranker ModernBERT Base Gooaq Bce
Apache-2.0
これはModernBERT-baseからファインチューニングされたクロスエンコーダーモデルで、テキスト再ランキングと意味検索タスクに使用されます。
テキスト埋め込み 英語
R
tomaarsen
483
2
Mixedbread Ai.mxbai Rerank Large V2 GGUF
mxbai-rerank-large-v2 は、検索結果の関連性と正確性を向上させることに特化したテキストランキングの基本モデルです。
テキスト埋め込み
M
DevQuasar
938
0
Reranker Msmarco MiniLM L12 H384 Uncased Lambdaloss
Apache-2.0
これはMiniLM-L12-H384-uncasedをファインチューニングしたクロスエンコーダモデルで、テキスト再ランキングと意味検索タスクに使用されます。
テキスト埋め込み 英語
R
tomaarsen
1,019
3
Lightblue Reranker 0.5 Cont Gguf
これはテキストランキングモデルで、テキストの再ランキングとスコアリングに使用されます。
テキスト埋め込み
L
RichardErkhov
1,986
0
Jbaron34 Qwen2.5 0.5b Bebop Reranker Newer Small Gguf
Qwen2.5アーキテクチャに基づく5000万パラメータのテキストランキングモデルで、情報検索やドキュメントランキングタスクに適しています
大規模言語モデル
J
RichardErkhov
2,117
0
Jbaron34 Qwen2.5 0.5b Bebop Reranker New Small Gguf
Qwen2.5アーキテクチャに基づく0.5Bパラメータ規模のテキストランキングモデルで、再ランキングタスクに適しています。
大規模言語モデル
J
RichardErkhov
2,454
0
Mxbai Rerank Base V1
Apache-2.0
これはTransformersアーキテクチャに基づく再ランキング(Reranker)モデルで、主に情報検索と検索結果最適化タスクに使用されます。

M
khoj-ai
81
1
Bge Reranker Base Q8 0 GGUF
MIT
このモデルはBAAI/bge-reranker-baseから変換されたGGUFフォーマットのモデルで、主にテキスト再ランキングタスクに使用されます。
テキスト埋め込み 複数言語対応
B
xinming0111
106
1
Thusinh1969 Gemma2 2b Rerank Checkpoint 8800 Gguf
Gemma 2Bアーキテクチャに基づくテキストランキングモデルで、さまざまなハードウェア要件に対応する複数の量子化バージョンを提供
T
RichardErkhov
71
0
Bge Reranker V2 M3 Onnx O4
Apache-2.0
BGE-RERANKER-V2のONNX O4バージョンは最適化されたテキスト再ランキングモデルで、多言語テキストペアの関連性スコアリングをサポートします。
テキスト分類
Transformers

B
hooman650
39
5
Trecdl22 Crossencoder Debertav3
Transformerアーキテクチャに基づくテキストランキングモデルで、文や段落の関連性をランク付けするために使用されます。
テキスト埋め込み
T
naver
9,226
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98