Multilingual E5 Small Ko V2
Apache-2.0
intfloat/multilingual-e5-smallをベースに微調整した韓国語文変換器で、韓国語検索タスクに使用されます。
テキスト埋め込み 複数言語対応
M
dragonkue
252
2
Opensearch Semantic Highlighter V1
Apache-2.0
OpenSearch意味ハイライターは、ドキュメントの文とクエリの関連性を評価するテキスト分類器です。
テキスト埋め込み
Transformers 英語

O
opensearch-project
30
1
Linq Embed Mistral Bnb 4bit
Linq-Embed-MistralはMistralアーキテクチャに基づく埋め込みモデルで、テキスト分類、検索、クラスタリングタスクに特化しており、複数のMTEBベンチマークで優れた性能を発揮します。
テキスト埋め込み
Transformers 英語

L
ashercn97
147
1
Reranker Gte Multilingual Base Msmarco Bce Ep 2
sentence-transformersライブラリを基に、msmarcoデータセットで訓練されたクロスエンコーダモデルで、テキストの再ランキングと意味検索に使用されます。
テキスト埋め込み 複数言語対応
R
skfrost19
28
0
Reranker ModernBERT Base Gooaq 1 Epoch 1995000
Apache-2.0
これはModernBERT-baseからファインチューニングされたクロスエンコーダーモデルで、テキストペアのスコア計算に使用され、テキスト再ランキングや意味検索タスクに適しています。
テキスト埋め込み 英語
R
ayushexel
30
0
Reranker Msmarco ModernBERT Base Lambdaloss
Apache-2.0
これはModernBERT-baseから微調整されたクロスエンコーダモデルで、テキストペアのスコアを計算するために使用され、テキストの再ランキングと意味検索タスクに適しています。
テキスト埋め込み 英語
R
tomaarsen
89
4
Reranker Msmarco MiniLM L12 H384 Uncased Lambdaloss
Apache-2.0
これはMiniLM-L12-H384-uncasedをファインチューニングしたクロスエンコーダモデルで、テキスト再ランキングと意味検索タスクに使用されます。
テキスト埋め込み 英語
R
tomaarsen
1,019
3
Embedder Collection
ドイツ語と英語の多言語埋め込みモデル、8192トークンのコンテキスト長をサポート
テキスト埋め込み 複数言語対応
E
kalle07
6,623
10
Mini Gte
Apache-2.0
DistilBERTベースの軽量文埋め込みモデル、様々なテキスト処理タスクに適応
テキスト埋め込み 英語
M
prdev
1,240
4
Context Skill Extraction Base
これはsentence-transformersで訓練されたモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、意味的テキスト類似度計算や意味検索など様々なタスクに適しています。
テキスト埋め込み
C
TechWolf
189
5
Ko Reranker
MIT
ko-rerankerはBAAI/bge-reranker-largeモデルを基に、韓国語データでファインチューニングしたテキストランキングモデルです。
テキスト埋め込み
Transformers 複数言語対応

K
upskyy
81
4
Bge M3 GGUF
MIT
本モデルはllama.cppを使用してBAAI/bge-m3から変換されたGGUF形式のモデルで、主に文の類似度計算と特徴抽出に使用されます。
テキスト埋め込み
B
KimChen
636
5
Bge M3 GGUF
MIT
このモデルはggml.aiのGGUF-my-repoスペースを使用し、llama.cppによってBAAI/bge-m3からGGUF形式に変換された文類似度モデルです。
テキスト埋め込み
B
bbvch-ai
266
1
Robbert 2023 Dutch Base Cross Encoder
Transformersライブラリに基づく文埋め込みモデルで、文のベクトル表現を生成し、テキストランキングタスクをサポートします。
テキスト埋め込み
Transformers

R
NetherlandsForensicInstitute
118
2
Bge Large Medical
これはsentence-transformersに基づくモデルで、文や段落を1024次元の密なベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
B
ls-da3m0ns
1,795
5
Bge Large En V1.5 Gguf
MIT
GGUF形式の量子化および非量子化埋め込みモデルを提供し、llama.cpp専用に設計されています。CPU上で実行すると速度が大幅に向上し、GPU上でも大規模モデルに対して適度な高速化が可能です。
テキスト埋め込み
B
CompendiumLabs
878
10
Jacolbert
MIT
JaColBERTはColBERTを基にした初の日本語専用文書検索モデルで、強力なドメイン外汎化能力を備えています。
テキスト埋め込み
Safetensors 日本語
J
bclavie
859
25
QA Search
これはsentence-transformersに基づくモデルで、文や段落を256次元の密なベクトル空間にマッピングでき、文の類似度計算、クラスタリング、意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

Q
omarelsayeed
29
0
Finetuning Bm25 Small
これはsentence-transformersに基づく文の類似度計算モデルで、テキストを768次元のベクトル空間にマッピングできます。
テキスト埋め込み
F
jhsmith
15
0
Finetunedsbert On 84 Million Triplets
これはsentence-transformersに基づくモデルで、文や段落を384次元の密なベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

F
moslemsamiee
384
0
Multilingual E5 Small Onnx
Apache-2.0
これは多言語文変換モデルで、テキストを密ベクトル空間にマッピングし、意味検索やクラスタリングタスクをサポートします
テキスト埋め込み 英語
M
nixiesearch
96
1
Dfm Sentence Encoder Large Exp2 No Lang Align
これはsentence-transformersに基づく文エンコーダーモデルで、文や段落を1024次元の密なベクトル空間にマッピングでき、意味検索やクラスタリングなどのタスクに適しています。
テキスト埋め込み
Transformers

D
KennethEnevoldsen
169
1
ALL Title Desc Curated
これはsentence-transformersに基づくモデルで、文や段落を384次元のベクトル空間にマッピングし、文の類似度計算や意味検索タスクに使用できます。
テキスト埋め込み
Transformers

A
thtang
17
0
DISASTER MODEL PRECHATS
これはsentence-transformersに基づくモデルで、文や段落を256次元のベクトル空間にマッピングし、文の類似度計算や意味検索などのタスクに使用できます。
テキスト埋め込み
Transformers

D
omarelsayeed
49
0
E5 Large V2 Onnx
Apache-2.0
これは文や段落を密なベクトル空間にマッピングする文変換モデルで、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み 英語
E
nixiesearch
114
0
Sentence Transformer Legal Hebert
これはsentence-transformersに基づくモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
dean-ai
23
1
Sentence Camembert Large
Apache-2.0
CamemBERT-largeベースのフランス語文埋め込みモデル、強力な意味検索能力を提供
テキスト埋め込み フランス語
S
Lajavaness
3,729
8
Sbert All MiniLM L6 V2
これはsentence-transformersに基づくモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
nlplabtdtu
55
0
Dfm Sentence Encoder Small V1
これはsentence-transformersに基づく文のエンコーダーモデルで、文や段落を256次元の密ベクトル空間にマッピングでき、文の類似度計算、クラスタリング、意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

D
kardosdrur
16
0
COS TAPT N RoBERTa Sts E3 OnlineContrastiveLoss 2023 10 16
これはsentence-transformersに基づくモデルで、文章や段落を1024次元の密なベクトル空間にマッピングでき、文章類似度計算、クラスタリング、意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

C
Kyleiwaniec
177
0
Indonesian Sbert Large
これはsentence-transformersに基づく文の埋め込みモデルで、テキストを1024次元のベクトル表現に変換でき、意味検索やテキストの類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers

I
naufalihsan
92.89k
7
Dfe Base En 1
これはsentence-transformersに基づく文の埋め込みモデルで、テキストを1536次元のベクトル空間にマッピングでき、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み
D
diwank
62
0
Finetuned Bge Embeddings
これはsentence-transformersベースのモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

F
austinpatrickm
17
0
M E5 Large Bs64 10 All Languages
これはsentence-transformersベースのモデルで、文や段落を1024次元の密なベクトル空間にマッピングし、文の類似度計算や意味検索などのタスクに使用できます。
テキスト埋め込み
M
mrm8488
73
1
Bunka Embedding
MIT
これはsentence-transformersに基づく文章埋め込みモデルで、テキストを768次元のベクトル空間にマッピングでき、意味検索やテキストクラスタリングなどのタスクに適しています。
テキスト埋め込み
Transformers 英語

B
charlesdedampierre
17
1
Multilingual E5 Large Skill Job Matcher
これはsentence-transformersに基づく文の埋め込みモデルで、テキストを1024次元のベクトル空間にマッピングでき、意味検索とテキストの類似度計算に適しています。
テキスト埋め込み
M
serbog
310
2
Frpile GPL Test Pipeline DragosGorduza FRPile MLM Basel 14000
これはsentence-transformersに基づくモデルで、文や段落を1024次元の密なベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

F
DragosGorduza
14
0
Frpile GPL Test Pipeline BAAI Bge Large En 14000
これはsentence - transformersに基づくモデルで、文や段落を1024次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

F
DragosGorduza
14
0
Frpile GPL Test Pipeline All Mpnet Base V2 14000
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
F
DragosGorduza
18
0
Msmarco Roberta Medxemoji V.1
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

M
Norawit
19
0
- 1
- 2
- 3
- 4
- 5
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98