Qwen3 Embedding 0.6B W4A16 G128
Apache-2.0
Qwen3-Embedding-0.6BのGPTQ量子化バージョン。VRAM使用量が最適化され、性能損失が少ない。
テキスト埋め込み
Q
boboliu
131
2
Silma Embedding Matryoshka V0.1
Apache-2.0
SILMAアラビアマトリョーシカ埋め込みモデル0.1は、革新的なマトリョーシカ埋め込み技術を採用した高度なアラビア語テキスト埋め込みモデルで、異なる次元でテキスト表現を最適化し、速度、保存容量、精度のバランスを取ることができます。
テキスト埋め込み 複数言語対応
S
silma-ai
446
11
Noinstruct Small Embedding V0
MIT
NoInstruct小型埋め込みモデルv0は、検索タスクの性能向上に焦点を当てた改良型埋め込みモデルで、任意の命令エンコーディングに対する独立性を維持しています。
テキスト埋め込み
Transformers 英語

N
avsolatorio
90.76k
22
Paraphrase MiniLM L6 V2 Finetune Summary
sentence-transformersに基づく文の埋め込みモデルで、テキストを384次元のベクトル空間にマッピングでき、意味的検索とテキストの類似度計算に適しています。
テキスト埋め込み
Transformers

P
tonychenxyz
20
1
Kf Deberta Multitask
これはsentence-transformersベースの韓国語文埋め込みモデルで、文や段落を768次元の密なベクトル空間にマッピングし、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers 韓国語

K
upskyy
1,866
15
Hindi Sensim Sbert Usingsumodataset Basel3cubepune
これはsentence - transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

H
gaurav-mac
27
0
Simcse Model Phayathaibert
Apache-2.0
これはsentence-transformersに基づくモデルで、文章や段落を768次元の密集ベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
kornwtp
123
2
QA Search
これはsentence-transformersに基づくモデルで、文や段落を256次元の密なベクトル空間にマッピングでき、文の類似度計算、クラスタリング、意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

Q
omarelsayeed
29
0
Abc
これはsentence-transformersに基づく文の類似度モデルで、テキストを384次元のベクトル空間にマッピングし、意味的検索やクラスタリングタスクに使用できます。
テキスト埋め込み
Transformers

A
Nerdofdot
15
0
Finetunedsbert On 84 Million Triplets
これはsentence-transformersに基づくモデルで、文や段落を384次元の密なベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

F
moslemsamiee
384
0
Turemb 512
これはsentence-transformersに基づくモデルで、文や段落を512次元の密なベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

T
cenfis
16
3
Multilingual E5 Small Optimized
MIT
これはmultilingual-e5-smallの量子化バージョンで、層ごとの量子化により推論性能を最適化し、同時に元のモデルの大部分の品質を維持しています。
テキスト埋め込み 複数言語対応
M
elastic
201
15
Roberta Topseg Contrastive
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

R
ighina
15
2
Sbert All MiniLM L6 V2
これはsentence-transformersベースのモデルで、文や段落を384次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
patent
34
2
Multi Qa Mpnet Base Dot V1 Covidqa Search Multiple Negatives Loss
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算、クラスタリング、意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

M
checkiejan
14
0
Finetuned Phobert Base V2
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

F
owngpt
15
0
Sti Cyber Security Model Updated
これはsentence - transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算、クラスタリング、意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
BlueAvenir
116
0
Ai3 Bert Embedding Model
これはsentence-transformersに基づくモデルで、文章や段落を768次元の密ベクトル空間にマッピングし、文章類似度計算や意味的検索などのタスクに使用できます。
テキスト埋め込み
Transformers

A
jason1234
17
1
Mentioning Type Class Model
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

M
BlueAvenir
13
0
Products Matching Aumet
これはsentence-transformersに基づくモデルで、文や段落を384次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
P
RIOLITE
19
1
Arabic KW Mdel
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算、クラスタリング、意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

A
medmediani
15.84k
5
Keysentence Finder
これはsentence - transformersに基づく文の埋め込みモデルで、テキストを768次元のベクトル表現に変換でき、意味的類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers

K
m3hrdadfi
31
0
Evaluation Xlm Roberta Model
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

E
loutchy
22
0
Relevance Classifier Model
これはsentence-transformersに基づく文埋め込みモデルで、テキストを384次元のベクトル表現に変換することができます。
テキスト埋め込み
Transformers

R
tatianafp
175
0
Nooks Amd Detection Realtime
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングし、文の類似度計算や意味的検索などのタスクに使用できます。
テキスト埋め込み
Transformers

N
nikcheerla
17
0
SBERT JSNLI Base
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングし、文の類似度計算、クラスタリング、意味的検索などのタスクに使用できます。
テキスト埋め込み
Transformers

S
MU-Kindai
343
0
579 STmodel Product Rem V3a
これはsentence-transformersに基づく文埋め込みモデルで、テキストを768次元のベクトル空間にマッピングでき、意味的検索やテキスト類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers

5
jamiehudson
15
0
Address Match Abp V2
これはsentence-transformersに基づくモデルで、文章や段落を64次元の密ベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
A
arinze
87
0
Sdg Sentence Transformer
これはsentence - transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
peter2000
13
0
S BlueBERT
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
menadsa
58
0
Setfit Stance Prediction Spanish News Headlines
これはsentence-transformersに基づくモデルで、文や段落を384次元の密なベクトル空間にマッピングでき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み
S
IsaacRodgz
13
0
Raw 2 No 0 Test 2 New.model
これはsentence-transformersに基づく文埋め込みモデルで、テキストを768次元のベクトル空間にマッピングでき、意味検索やテキスト類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers

R
Wheatley961
13
0
Erlangshen SimCSE 110M Chinese
Apache-2.0
SimCSEの教師なしバージョンに基づき、中国語NLIデータを使用した教師ありコントラスト学習でトレーニングされた中国語文ベクトル表現モデル
テキスト埋め込み
Transformers 中国語

E
IDEA-CCNL
186
21
Sentencetest Kbert2
これはsentence-transformersに基づく文章埋め込みモデルで、テキストを768次元のベクトル表現に変換でき、意味的類似度計算やテキストクラスタリングなどのタスクに適しています。
テキスト埋め込み
Transformers

S
adit94
18
0
Sentencetest Kbert
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
adit94
18
0
Test False Positive 2
これはsentence-transformersに基づくモデルで、文や段落を768次元のベクトル空間にマッピングし、文の類似度計算や意味的検索などのタスクに使用できます。
テキスト埋め込み
Transformers

T
witty-works
14
0
Jur V5 Fsl Tuned Andamen
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

J
loremipsum3658
13
0
Address Match Abp V1
これはsentence-transformersに基づく文の類似度モデルで、文や段落を384次元のベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

A
arinze
248
3
Test Food
これはsentence-transformersに基づくモデルで、文章や段落を768次元の密ベクトル空間にマッピングでき、文章の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

T
Linus4Lyf
42
0
Klue Roberta Base Nli Sts
これはsentence-transformersに基づく文章類似度モデルで、テキストを768次元のベクトル空間にマッピングし、意味検索とクラスタリングタスクに使用できます。
テキスト埋め込み
Transformers

K
ddobokki
37
0
- 1
- 2
- 3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98