# テキストクラスタリング
Medical Embedded V4
Apache-2.0
これは多言語文埋め込みモデルで、文や段落を768次元ベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み Supports Multiple Languages
M
shtilev
202
1
Sentence Bert Base Italian Xxl Uncased
MIT
これはイタリア語ベースの文変換モデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers Other

S
nickprock
28.77k
15
Bge Large Medical
これはsentence-transformersに基づくモデルで、文や段落を1024次元の密なベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
B
ls-da3m0ns
1,795
5
Hindi Sensim Sbert Usingsumodataset Basel3cubepune
これはsentence - transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

H
gaurav-mac
27
0
QA Search
これはsentence-transformersに基づくモデルで、文や段落を256次元の密なベクトル空間にマッピングでき、文の類似度計算、クラスタリング、意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

Q
omarelsayeed
29
0
Abc
これはsentence-transformersに基づく文の類似度モデルで、テキストを384次元のベクトル空間にマッピングし、意味的検索やクラスタリングタスクに使用できます。
テキスト埋め込み
Transformers

A
Nerdofdot
15
0
Finetuning Bm25 Small
これはsentence-transformersに基づく文の類似度計算モデルで、テキストを768次元のベクトル空間にマッピングできます。
テキスト埋め込み
F
jhsmith
15
0
Finetunedsbert On 84 Million Triplets
これはsentence-transformersに基づくモデルで、文や段落を384次元の密なベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

F
moslemsamiee
384
0
Mmlw Roberta Large
Apache-2.0
RoBERTaアーキテクチャに基づく大規模ポーランド語文章変換モデルで、文の類似度計算と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers Other

M
sdadas
5,007
13
Turemb 512
これはsentence-transformersに基づくモデルで、文や段落を512次元の密なベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

T
cenfis
16
3
Dfm Sentence Encoder Large Exp2 No Lang Align
これはsentence-transformersに基づく文エンコーダーモデルで、文や段落を1024次元の密なベクトル空間にマッピングでき、意味検索やクラスタリングなどのタスクに適しています。
テキスト埋め込み
Transformers

D
KennethEnevoldsen
169
1
ALL Title Desc Curated
これはsentence-transformersに基づくモデルで、文や段落を384次元のベクトル空間にマッピングし、文の類似度計算や意味検索タスクに使用できます。
テキスト埋め込み
Transformers

A
thtang
17
0
DISASTER MODEL PRECHATS
これはsentence-transformersに基づくモデルで、文や段落を256次元のベクトル空間にマッピングし、文の類似度計算や意味検索などのタスクに使用できます。
テキスト埋め込み
Transformers

D
omarelsayeed
49
0
Roberta Topseg Contrastive
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

R
ighina
15
2
Stsb Bert Tiny Safetensors
これはBERTアーキテクチャに基づく軽量な文の埋め込みモデルで、文や段落を128次元の密ベクトルに変換でき、意味的類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers

S
sentence-transformers-testing
136.99k
4
Sentence Transformers Multilingual E5 Large
MIT
これはsentence-transformersベースの多言語文埋め込みモデルで、テキストを1024次元ベクトル空間にマッピングし、意味的検索やクラスタリングタスクに適しています。
テキスト埋め込み
S
smart-tribune
276
0
Sentence Transformer Legal Hebert
これはsentence-transformersに基づくモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
dean-ai
23
1
Sbert All MiniLM L6 V2
これはsentence-transformersに基づくモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
nlplabtdtu
55
0
Constructionembeddingbert
これはsentence - transformersに基づく文の埋め込みモデルで、文や段落を1536次元の密なベクトル空間にマッピングすることができます。
テキスト埋め込み
C
ahhany
25
0
Dfm Sentence Encoder Small V1
これはsentence-transformersに基づく文のエンコーダーモデルで、文や段落を256次元の密ベクトル空間にマッピングでき、文の類似度計算、クラスタリング、意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

D
kardosdrur
16
0
COS TAPT N RoBERTa Sts E3 OnlineContrastiveLoss 2023 10 16
これはsentence-transformersに基づくモデルで、文章や段落を1024次元の密なベクトル空間にマッピングでき、文章類似度計算、クラスタリング、意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

C
Kyleiwaniec
177
0
Indonesian Sbert Large
これはsentence-transformersに基づく文の埋め込みモデルで、テキストを1024次元のベクトル表現に変換でき、意味検索やテキストの類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers

I
naufalihsan
92.89k
7
Finetuned Bge Embeddings
これはsentence-transformersベースのモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

F
austinpatrickm
17
0
Multi Qa Mpnet Base Dot V1 Covidqa Search Multiple Negatives Loss
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算、クラスタリング、意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

M
checkiejan
14
0
M E5 Large Bs64 10 All Languages
これはsentence-transformersベースのモデルで、文や段落を1024次元の密なベクトル空間にマッピングし、文の類似度計算や意味検索などのタスクに使用できます。
テキスト埋め込み
M
mrm8488
73
1
Finetuned Phobert Base V2
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

F
owngpt
15
0
Multilingual E5 Large Skill Job Matcher
これはsentence-transformersに基づく文の埋め込みモデルで、テキストを1024次元のベクトル空間にマッピングでき、意味検索とテキストの類似度計算に適しています。
テキスト埋め込み
M
serbog
310
2
Frpile GPL Test Pipeline DragosGorduza FRPile MLM Basel 14000
これはsentence-transformersに基づくモデルで、文や段落を1024次元の密なベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

F
DragosGorduza
14
0
Frpile GPL Test Pipeline BAAI Bge Large En 14000
これはsentence - transformersに基づくモデルで、文や段落を1024次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

F
DragosGorduza
14
0
Frpile GPL Test Pipeline All Mpnet Base V2 14000
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
F
DragosGorduza
18
0
Msmarco Roberta Medxemoji V.1
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

M
Norawit
19
0
Sentence T5 Large Quora Text Similarity
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
S
DrishtiSharma
103
2
S DagoBERT STSb
これはsentence-transformersに基づく文の埋め込みモデルで、文や段落を768次元の稠密ベクトル空間にマッピングでき、文の類似度計算、意味検索、クラスタリングなどのタスクに適しています。
テキスト埋め込み
Transformers

S
jpostma
13
0
Products Matching Aumet Fine Tune 2023 08 22
これはsentence-transformersに基づくモデルで、文や段落を384次元のベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
P
RIOLITE
21
0
Sentence Transformers Gte Base
これはsentence-transformersベースの文埋め込みモデルで、文や段落を768次元のベクトル空間にマッピングでき、意味検索やクラスタリングなどのタスクに適しています。
テキスト埋め込み
S
embaas
43
0
Sentence Transformers Gte Large
これはsentence-transformersに基づく文埋め込みモデルで、テキストを1024次元の密ベクトル表現に変換でき、意味的検索やテキストクラスタリングなどのタスクに適しています。
テキスト埋め込み
S
embaas
106
1
Toolbench IR Bert Based Uncased
これはsentence-transformersに基づく文の埋め込みモデルで、テキストを768次元のベクトル表現に変換でき、意味検索やテキストの類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers

T
ToolBench
342
19
Dfm Sentence Encoder Medium
これはsentence-transformersに基づく文エンコーダーモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

D
KennethEnevoldsen
80
0
Sti Cyber Security Model Updated
これはsentence - transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算、クラスタリング、意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
BlueAvenir
116
0
Fine Tune All MiniLM L6 V2
これはsentence-transformersに基づくモデルで、文や段落を384次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
F
Madnesss
104
0
- 1
- 2
- 3
- 4
- 5
- 6
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98