# 意味検索最適化

FRIDA GGUF
MIT
FRIDAはT5ノイズ除去アーキテクチャの思想に基づいて全パラメータを微調整した汎用テキスト埋め込みモデルで、ロシア語と英語のテキスト処理をサポートしています。
テキスト埋め込み
F
evilfreelancer
352
6
Cupidon Small Ro
Apache-2.0
sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2をファインチューニングしたルーマニア語意味理解モデルで、小型ながら優れた性能を発揮
テキスト埋め込み Transformers その他
C
BlackKakapo
25
2
Mxbai Rerank Base V2 Seq
Apache-2.0
Transformerベースの多言語テキストソートモデルで、15言語のテキスト関連性ソートタスクをサポート
テキスト埋め込み Transformers 複数言語対応
M
michaelfeil
528
7
Nomic Embed Text V2 Moe Msmarco Bpr
これはnomic-ai/nomic-embed-text-v2-moeから微調整されたsentence-transformersモデルで、テキストを768次元の密なベクトル空間にマッピングし、意味テキスト類似度計算などのタスクに使用できます。
テキスト埋め込み
N
BlackBeenie
41
1
Bge M3 Q8 0 GGUF
MIT
このモデルはGGUF-my-repoを通じてBAAI/bge-m3から変換されたGGUF形式のモデルで、主に文類似度計算と特徴抽出に使用されます。
テキスト埋め込み
B
tinybiggames
41
1
Intfloat Triplet V2
これはintfloat/multilingual-e5-smallから微調整されたsentence-transformersモデルで、文や段落を384次元の密なベクトル空間にマッピングし、意味的テキスト類似度や意味検索などのタスクをサポートします。
テキスト埋め込み その他
I
x1saint
19
1
Giga Embeddings Instruct
MIT
Giga Embeddings Instructは高性能な埋め込みモデルで、テキスト分類と検索タスクに特化し、複数のベンチマークテストで優れた性能を発揮します。
テキスト埋め込み 複数言語対応
G
ai-sage
11.97k
46
Tooka SBERT
Apache-2.0
これはTookaBERT-Largeを基にしたペルシャ語の文埋め込みモデルで、テキストを1024次元ベクトル空間にマッピングし、意味類似度計算などのタスクに使用できます。
テキスト埋め込み その他
T
PartAI
2,847
14
Gte Base Ko
これはアリババNLP/gte-multilingual-baseモデルを基に、韓国語のトリプレットデータセットでファインチューニングされたsentence-transformersモデルで、意味的テキスト類似度などのタスクに使用されます。
テキスト埋め込み 複数言語対応
G
scottsuk0306
18
2
Dunzhang Stella En 400M V5
MIT
Stella 400Mは中規模の英語テキスト処理モデルで、分類と情報検索タスクに特化しています。
テキスト分類 Transformers その他
D
Marqo
17.20k
7
BGE M3 Ko
Apache-2.0
BAAI/bge-m3を基に最適化された韓国語・英語バイリンガル文埋め込みモデルで、意味的テキスト類似性や情報検索などのタスクをサポート
テキスト埋め込み 複数言語対応
B
dragonkue
29.78k
44
Bge M3 Gguf
MIT
bge-m3埋め込みモデルのGGUF量子化バージョン、効率的なテキスト埋め込みタスクに適しています
テキスト埋め込み
B
lm-kit
2,885
10
NV Embed V2
NV-Embed-v2 は sentence-transformers ベースの埋め込みモデルで、複数の MTEB ベンチマークテストで優れたパフォーマンスを発揮し、様々な自然言語処理タスクに適しています。
テキスト埋め込み Transformers 英語
N
nvidia
35.55k
420
E5 Small Korean
MIT
intfloat/multilingual-e5-smallをベースにファインチューニングした韓国語文埋め込みモデルで、384次元ベクトル表現をサポートし、意味的類似性計算などのタスクに適しています
テキスト埋め込み Transformers 複数言語対応
E
upskyy
2,510
2
Bge M3 Korean
BAAI/bge-m3を基に韓国語向けに最適化された文埋め込みモデルで、1024次元ベクトル表現をサポートし、意味的類似度計算などのタスクに適しています
テキスト埋め込み Transformers 複数言語対応
B
upskyy
7,823
51
SFR Embedding 2 R
Salesforceが開発した汎用テキスト埋め込みモデルで、様々なNLPタスクで優れた性能を発揮
テキスト埋め込み Transformers 英語
S
Salesforce
26.90k
86
All Minilm L6 V2 With Attentions
Apache-2.0
これはsentence-transformers/all-MiniLM-L6-v2のONNX移植バージョンで、アテンション重みを返すように調整され、BM42検索シナリオ用に設計されています。
テキスト埋め込み Transformers 英語
A
Qdrant
450.93k
10
Mxbai Embed Large V1 Gguf
Apache-2.0
mxbai-embed-large-v1はBERT-largeアーキテクチャに基づく文埋め込みモデルで、AnglE損失関数を使用してトレーニングされ、英語テキスト埋め込みをサポートし、さまざまなニーズに対応するための複数の量子化バージョンを提供します。
テキスト埋め込み 英語
M
ChristianAzinn
646
4
Bge Large Zh V1.5 Gguf
MIT
GGUF形式で提供されるBAAI/bge-large-zh-v1.5の量子化および非量子化埋め込みモデルで、llama.cppに適しており、CPU上で大幅な速度向上と極小の精度損失を実現します。
テキスト埋め込み
B
CompendiumLabs
1,213
12
Jina Embeddings V2 Base En
Jina Embeddings V2 Base は効率的な英語テキスト埋め込みモデルで、テキストを高次元ベクトル表現に変換でき、様々な自然言語処理タスクに適しています。
テキスト埋め込み Transformers
J
Cohee
1,584
2
River Retriver 416data Testing
これはsentence-transformersベースの文埋め込みモデルで、テキストを768次元ベクトル空間にマッピングでき、意味検索やテキスト類似度計算に適しています。
テキスト埋め込み
R
li-ping
15
0
ST NLI Ca Paraphrase Multilingual Mpnet Base
sentence-transformersベースの多言語文埋め込みモデルで、カタルーニャ語をサポートし、テキストを768次元ベクトル空間にマッピング可能
テキスト埋め込み Transformers
S
projecte-aina
56
1
Bge Micro V2
MIT
bge_micro は文類似度計算に特化した軽量モデルで、様々な自然言語処理タスクに適しています。
テキスト埋め込み Transformers
B
TaylorAI
248.53k
46
Ag Nli Bert Mpnet Base Uncased Sentence Similarity V1
これはsentence-transformersベースのモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み Transformers その他
A
abbasgolestani
18
0
Lodestone Base 4096 V1
Apache-2.0
Humによって開発されたsentence-transformersモデルで、4096トークンの長文埋め込みをサポートし、意味検索とクラスタリングタスクに適しています。
テキスト埋め込み 英語
L
Hum-Works
132
11
E5 Small V2 Onnx
Apache-2.0
これは文を密ベクトル空間にマッピングする文変換モデルで、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み 英語
E
nixiesearch
221
0
Msmarco Bert Base Dot V5 Fine Tuned AI
BERTアーキテクチャに基づく意味検索モデルで、情報検索システム向けに最適化されており、テキストを768次元ベクトル空間にマッピングできます
テキスト埋め込み Transformers 英語
M
Adel-Elwan
18
0
Multi Qa Mpnet Base Dot V1
これはsentence-transformersベースの意味検索モデルで、文や段落を768次元の密ベクトル空間にマッピングできます。
テキスト埋め込み
M
model-embeddings
772
1
All MiniLM L6 V2 Similarity Es
MIT
これはsentence-transformersベースのスペイン語文類似度モデルで、文や段落を768次元の密なベクトル空間にマッピングできます。
テキスト埋め込み Transformers スペイン語
A
jaimevera1107
9,076
3
Glucose Base Ja
Apache-2.0
GLuCoSEはLUKEをベースにした日本語テキスト埋め込みモデルで、文の類似度や意味検索タスクに適しています。
テキスト埋め込み Transformers 日本語
G
pkshatech
70.71k
32
Simcse Indoroberta Base
これはIndoRobertaベースの文変換モデルで、インドネシア語の文や段落を768次元ベクトル空間にマッピングでき、文類似度計算や意味検索タスクに適しています。
テキスト埋め込み Transformers その他
S
LazarusNLP
15
0
Sentence Transformers E5 Large V2
これはintfloat/e5-large-v2モデルに基づく文変換器のバージョンで、文や段落を1024次元の密集ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
S
embaas
71.83k
10
E5 Base
MIT
E5-baseは、分類、検索、クラスタリング、意味的類似度計算など、さまざまな自然言語処理タスクに適した汎用テキスト埋め込みモデルです。
テキスト埋め込み 英語
E
intfloat
30.85k
20
Instructor Xl
Apache-2.0
Instructorは命令微調整によるテキスト埋め込みモデルで、追加の微調整なしに任意のタスクやドメインに合わせてカスタマイズされたテキスト埋め込みベクトルを生成できます。
テキスト埋め込み Transformers 英語
I
hkunlp
149.36k
566
Hindi Sentence Similarity Sbert
これはSTSデータセットでファインチューニングされたヒンディー語の文類似度モデルで、ヒンディー語の文間の意味的類似性を計算できます。
テキスト埋め込み Transformers その他
H
l3cube-pune
655
7
Marathi Sentence Similarity Sbert
STSデータセットでファインチューニングされたマラーティー語文類似度モデル、文埋め込みと意味的類似度計算をサポート
テキスト埋め込み Transformers その他
M
l3cube-pune
94
3
Multilingual En Ru Uk
Apache-2.0
これは多言語文変換モデルで、英語、ロシア語、ウクライナ語、ポーランド語をサポートし、主に文の類似度計算と特徴抽出タスクに使用されます。
テキスト埋め込み Transformers 複数言語対応
M
uaritm
14
4
COS TAPT N RoBERTa STS
sentence-transformersベースの文埋め込みモデルで、テキストを1024次元ベクトル空間にマッピングし、意味検索やテキストクラスタリングタスクに適しています。
テキスト埋め込み Transformers
C
Kyleiwaniec
14
0
Sbert All MiniLM L6 With Pooler
Apache-2.0
sentence-transformersベースのONNXモデルで、テキストを384次元ベクトル空間にマッピング可能。意味検索やクラスタリングタスクに適しています。
テキスト埋め込み 英語
S
optimum
3,867
6
Sbert All MiniLM L12 With Pooler
Apache-2.0
これはsentence-transformersベースのONNXモデルで、文や段落を384次元の密ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み Transformers 英語
S
vamsibanda
31
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase