# 検索最適化

Lightblue Reranker 0.5 Cont Gguf
これはテキストランキングモデルで、テキストの再ランキングとスコアリングに使用されます。
テキスト埋め込み
L
RichardErkhov
1,986
0
Jbaron34 Qwen2.5 0.5b Bebop Reranker Newer Small Gguf
Qwen2.5アーキテクチャに基づく5000万パラメータのテキストランキングモデルで、情報検索やドキュメントランキングタスクに適しています
大規模言語モデル
J
RichardErkhov
2,117
0
Jbaron34 Qwen2.5 0.5b Bebop Reranker New Small Gguf
Qwen2.5アーキテクチャに基づく0.5Bパラメータ規模のテキストランキングモデルで、再ランキングタスクに適しています。
大規模言語モデル
J
RichardErkhov
2,454
0
Gguf Jina Reranker V1 Tiny En
Apache-2.0
高速リランキング専用に設計されたモデルで、JinaBERTアーキテクチャに基づき、長文シーケンス処理(最大8,192トークン)をサポートします。
テキスト埋め込み 英語
G
Felladrin
3,831
1
Granite Embedding 107m Multilingual GGUF
Apache-2.0
IBM Graniteチームによって開発された多言語埋め込みモデルの量子化バージョンで、17種類の言語のテキスト埋め込みタスクをサポートし、検索や情報抽出などのシナリオに適しています。
テキスト埋め込み 複数言語対応
G
bartowski
15.19k
1
Speed Embedding 7b Instruct
MIT
Speed Embedding 7B Instructは、Transformerアーキテクチャに基づく大規模言語モデルで、テキスト埋め込みと分類タスクに特化しており、複数のベンチマークテストで優れた性能を発揮します。
大規模言語モデル Transformers 英語
S
Haon-Chen
37
5
Noinstruct Small Embedding V0
MIT
NoInstruct小型埋め込みモデルv0は、検索タスクの性能向上に焦点を当てた改良型埋め込みモデルで、任意の命令エンコーディングに対する独立性を維持しています。
テキスト埋め込み Transformers 英語
N
avsolatorio
90.76k
22
Fio Base Japanese V0.1
Fioシリーズ日本語埋め込みモデルの初版、BERTアーキテクチャに基づき、日本語テキストの類似度と特徴抽出タスクに特化
テキスト埋め込み Transformers 日本語
F
bclavie
79
7
E5 Large En Ru
MIT
これはintfloat/multilingual-e5-largeモデルの語彙プルーニング版で、ロシア語と英語のトークンのみを保持し、オリジナルモデルの性能を維持しています。
テキスト埋め込み Transformers 複数言語対応
E
d0rj
712
9
E5 Small
MIT
E5-smallは小型のセンテンストランスフォーマーモデルで、文類似度とテキスト埋め込みタスクに特化しており、複数の分類・検索タスクで良好な性能を発揮します。
テキスト埋め込み 英語
E
intfloat
16.96k
41
Bert Mini Finetune Question Detection
BERT-miniをファインチューニングしたクエリ分類モデルで、キーワードクエリと疑問文/陳述文クエリを区別するために使用されます
テキスト分類 Transformers 英語
B
shahrukhx01
6,890
17
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase