# 高精度検索

Qwen3 Embedding 4B GGUF
Apache-2.0
Qwen3-Embedding-4BはQwen3シリーズに基づいて構築されたテキスト埋め込みモデルで、テキスト埋め込みとソートタスクに特化して設計され、多言語テキスト処理やコード検索などの分野で優れた性能を発揮します。
テキスト埋め込み
Q
Mungert
723
1
Qwen3 Reranker 4B W4A16 G128
Apache-2.0
これはQwen/Qwen3-Reranker-4BをGPTQ量子化した成果で、VRAM使用量を大幅に削減しました。
大規模言語モデル Transformers
Q
boboliu
157
1
Qwen3 Reranker 4B Seq
Apache-2.0
Qwen3-Reranker-4Bは通義ファミリーが最新でリリースした4Bパラメータ規模のテキスト再ランキングモデルで、100種類以上の言語をサポートし、テキスト検索タスクで卓越した性能を発揮します。
テキスト埋め込み Transformers
Q
michaelfeil
122
1
Ruri V3 310m
Apache-2.0
Ruri v3はModernBERT-Jaを基に構築された汎用日本語テキスト埋め込みモデルで、日本語テキスト埋め込みタスクにおいて業界トップレベルの性能を実現し、最大8192トークンの長いシーケンスをサポートします。
テキスト埋め込み 日本語
R
cl-nagoya
3,395
21
Ruri V3 130m
Apache-2.0
Ruri v3 は ModernBERT-Ja をベースに構築された日本語汎用テキスト埋め込みモデルで、日本語テキスト埋め込みタスクにおいて最先端の性能を達成し、最大8192トークンの長いシーケンスをサポートします。
テキスト埋め込み 日本語
R
cl-nagoya
597
1
Ruri V3 70m
Apache-2.0
瑠璃v3はModernBERT-Jaを基に構築された日本語汎用テキスト埋め込みモデルで、最大8192トークンの長いシーケンスをサポートし、日本語テキスト埋め込みタスクで最先端の性能を達成しています。
テキスト埋め込み 日本語
R
cl-nagoya
865
1
Ruri V3 Reranker 310m
Apache-2.0
ModernBERT-Jaをベースに構築された日本語汎用リランキングモデルで、トップクラスの性能と長文処理能力を備えています
テキスト埋め込み 日本語
R
cl-nagoya
1,100
5
Modernbert Embed Base Legal Matryoshka 2
Apache-2.0
ModernBERTアーキテクチャを基に最適化された法律分野の埋め込みモデルで、多次元特徴抽出と文類似度計算をサポート
テキスト埋め込み 英語
M
manishh16
14
1
Mixedbread Ai.mxbai Rerank Large V2 GGUF
mxbai-rerank-large-v2 は、検索結果の関連性と正確性を向上させることに特化したテキストランキングの基本モデルです。
テキスト埋め込み
M
DevQuasar
938
0
Gte Reranker Modernbert Base
Apache-2.0
ModernBERT事前学習アーキテクチャに基づく英語テキスト並べ替えモデルで、AlibabaのTongyi Labによって開発され、8192トークンの長文処理をサポートします。
テキスト埋め込み Transformers 英語
G
Alibaba-NLP
17.69k
56
Ruri Small V2
Apache-2.0
瑠璃は日本語汎用テキスト埋め込みモデルで、文類似度計算と特徴抽出に特化しており、cl-nagoya/ruri-pt-small-v2ベースモデルでトレーニングされています。
テキスト埋め込み 日本語
R
cl-nagoya
55.95k
4
Ruri Reranker Large
Apache-2.0
瑠璃リランカーは日本語汎用リランキングモデルで、Sentence Transformersアーキテクチャに基づき、日本語テキストの関連性順位付けタスクに特化しています。
テキスト埋め込み 日本語
R
cl-nagoya
2,538
11
Ruri Reranker Base
Apache-2.0
日本語汎用リランキングモデル、日本語テキスト検索の関連性順位付け効果を向上
テキスト埋め込み 日本語
R
cl-nagoya
1,100
4
Ruri Reranker Stage1 Base
Apache-2.0
瑠璃リランカーはTransformerアーキテクチャに基づく日本語テキストリランキングモデルで、検索結果の並び替え品質を最適化するために設計されています。
テキスト埋め込み 日本語
R
cl-nagoya
26
0
Fingumv3
これはdunzhang/stella_en_1.5B_v5をファインチューニングしたsentence-transformersモデルで、文や段落の1024次元の密なベクトル表現を生成し、意味的テキスト類似性や意味的検索などのタスクに適しています。
テキスト埋め込み
F
FINGU-AI
26
1
NV Retriever V1
その他
NV-Retriever-v1は検索モデルで、MTEB ArguAnaおよびCQADupstackAndroidRetrievalデータセットで優れた性能を発揮し、効率的な検索能力を備えています。
テキスト埋め込み Transformers 英語
N
nvidia
26
18
Snowflake Arctic Embed M V1.5
Apache-2.0
Snowflake Arctic Embed M v1.5は、文の類似度計算と特徴抽出タスクに特化した効率的な文埋め込みモデルです。
テキスト埋め込み
S
Snowflake
219.46k
58
Arabic All Nli Triplet Matryoshka
Apache-2.0
sentence-transformers/paraphrase-multilingual-mpnet-base-v2をファインチューニングしたアラビア語の文類似度モデルで、特徴抽出とトレーニング生成をサポート
テキスト埋め込み アラビア語
A
Omartificial-Intelligence-Space
2,523
3
Bi Encoder Russian Msmarco
MIT
DeepPavlov/rubert-base-cased事前学習モデルを基に、MS-MARCOロシア語パッセージランキングデータセットで微調整されたsentence-transformersモデルで、ロシア語の非対称意味検索に使用されます。
テキスト埋め込み Transformers その他
B
DiTy
74.33k
6
Japanese Reranker Cross Encoder Base V1
MIT
これは日本語で訓練されたReranker(CrossEncoder)モデルで、テキスト関連性ソートタスクに使用されます。
テキスト埋め込み 日本語
J
hotchpotch
750
1
Japanese Bge Reranker V2 M3 V1
MIT
これは日本語のリランカー(クロスエンコーダ)モデルで、テキストランキングタスクに使用され、24層と1024隠れ層のサイズを持っています。
テキスト埋め込み 日本語
J
hotchpotch
1,151
15
Dmeta Embedding Zh Small
Apache-2.0
Dmeta-embedding-zh-smallは、複数の自然言語処理タスクで優れた性能を発揮するモデルで、特に中国語テキスト処理に適しています。
テキスト埋め込み Transformers
D
DMetaSoul
10.76k
16
Bloomz 3b Reranking
Openrail
Bloomz-3bを基に構築された言語横断的リランキングモデルで、クエリとコンテキスト間の意味的関連性を測定し、フランス語と英語をサポートします。
大規模言語モデル Transformers 複数言語対応
B
cmarkea
115
1
Acge Text Embedding
ACGE テキスト埋め込みモデルは、テキスト埋め込みベクトルを生成するためのモデルで、さまざまな自然言語処理タスクをサポートします。
テキスト埋め込み
A
aspire
27.12k
146
Xiaobu Embedding
xiaobu-embeddingはマルチタスク埋め込みモデルで、テキスト類似度計算、分類、クラスタリング、検索など、さまざまな中国語自然言語処理タスクをサポートします。
テキスト埋め込み Transformers
X
lier007
147
19
Gte Large Zh
MIT
GTE Large 中国語モデルは多言語テキスト埋め込みモデルで、中国語テキストの意味表現と類似度計算に特化しています。
テキスト埋め込み 英語
G
thenlper
4,896
110
Tao 8k
Apache-2.0
tao-8k-origin は文の類似度計算に特化したモデルで、複数の類似度測定方法をサポートし、複数の中国語評価データセットで優れた性能を発揮します。
テキスト埋め込み 中国語
T
Amu
639
46
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase