Nomic Embed Text V1.5 GGUF
Apache-2.0
Nomic-embed-text-v1.5はNomic AIによって開発されたテキスト埋め込みモデルで、sentence-transformersライブラリに基づいており、文の類似度タスクに特化しています。
テキスト埋め込み 英語
N
gaianet
594
2
Kf Deberta Multitask
これはsentence-transformersベースの韓国語文埋め込みモデルで、文や段落を768次元の密なベクトル空間にマッピングし、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers 韓国語

K
upskyy
1,866
15
Multi Sentence BERTino
MIT
これはBERTinoベースのセンテンストランスフォーマーモデルで、イタリア語の文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers その他

M
nickprock
63.88k
5
Simcse Model M Bert Thai Cased
Apache-2.0
mBERTベースのSimCSEモデルで、タイ語専用に訓練され、文や段落の768次元ベクトル表現を生成
テキスト埋め込み
Transformers

S
kornwtp
25
1
Sentence Transformer Legal Hebert
これはsentence-transformersに基づくモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
dean-ai
23
1
Finetuned Bge Embeddings
これはsentence-transformersベースのモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

F
austinpatrickm
17
0
Bunka Embedding
MIT
これはsentence-transformersに基づく文章埋め込みモデルで、テキストを768次元のベクトル空間にマッピングでき、意味検索やテキストクラスタリングなどのタスクに適しています。
テキスト埋め込み
Transformers 英語

B
charlesdedampierre
17
1
Frpile GPL Test Pipeline All Mpnet Base V2 14000
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
F
DragosGorduza
18
0
Toolbench IR Bert Based Uncased
これはsentence-transformersに基づく文の埋め込みモデルで、テキストを768次元のベクトル表現に変換でき、意味検索やテキストの類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers

T
ToolBench
342
19
Simcse Indoroberta Base
これはIndoRobertaベースの文変換モデルで、インドネシア語の文や段落を768次元ベクトル空間にマッピングでき、文類似度計算や意味検索タスクに適しています。
テキスト埋め込み
Transformers その他

S
LazarusNLP
15
0
Llama Lite 134m
Apache-2.0
1億3400万パラメータ、768次元のLlama軽量版、文埋め込みベクトル生成用
テキスト埋め込み
Transformers

L
skeskinen
93
13
E5 Base Unsupervised
MIT
E5ベース教師なしモデルはコントラスティブ事前学習に基づくテキスト埋め込みモデルで、文の類似度や変換タスクに適しています。
テキスト埋め込み 英語
E
intfloat
940
1
Java Summary Classifier
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
J
AISE-TUDelft
13
0
Ea Setfit V1 Classifier
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングし、文の類似度計算や意味検索などのタスクに使用できます。
テキスト埋め込み
Transformers

E
czesty
50
1
Sbert Jsnli Luke Japanese Base Lite
Apache-2.0
これはsentence-transformersに基づく日本語の文埋め込みモデルで、文や段落を768次元のベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers 日本語

S
oshizo
9,113
35
Book Reviews
これはsentence-transformersに基づく文埋め込みモデルで、テキストを768次元のベクトル表現に変換でき、意味検索やテキスト類似度計算などのタスクに適しています。
テキスト埋め込み
B
lksfr
14
0
Best 32 Shot Model
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

B
Nhat1904
14
0
S PubMedBERT
これはsentence - transformersに基づくモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
menadsa
274
1
Sentence T5 Base Nlpl Code Search Net
これはsentence-transformersに基づくモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
S
krlvi
297
11
Smol8
これはsentence-transformersに基づく文の類似度モデルで、テキストを768次元のベクトル空間にマッピングして、意味検索とクラスタリングタスクに使用できます。
テキスト埋め込み
S
Watwat100
13
0
From Classifier V0
これはsentence-transformersに基づく文埋め込みモデルで、テキストを768次元のベクトル表現に変換できます。
テキスト埋め込み
Transformers

F
futuredatascience
14
0
Raw 2 No 2 Test 2 New.model
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

R
Wheatley961
13
0
Hindi Sentence Bert Nli
NLIデータセットを基に訓練されたヒンディー語のBERTモデルで、文章類似度の計算と特徴抽出に使用されます。
テキスト埋め込み
Transformers その他

H
l3cube-pune
93
1
Pubmedbert Mnli Snli Scinli Scitail Mednli Stsb
PubMedBERTベースの文変換モデルで、文や段落の768次元ベクトル表現を生成し、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み
Transformers

P
pritamdeka
213
7
Biobert Mnli Snli Scinli Scitail Mednli Stsb
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

B
pritamdeka
53.20k
43
Setfit Product Review Regression
これはsentence - transformersに基づく文の埋め込みモデルで、テキストを768次元のベクトル表現に変換できます。
テキスト埋め込み
Transformers

S
ivanzidov
14
0
Setfit Product Review
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
ivanzidov
16
0
Sentencetest
これはsentence-transformersに基づく文の埋め込みモデルで、テキストを768次元のベクトル空間にマッピングでき、意味検索とテキストの類似度計算に適しています。
テキスト埋め込み
S
adit94
15
0
Setfit ST ICD10 L3
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
rjac
14
0
Setfit Finetuned Financial Text Classification
これはsentence-transformersに基づくモデルで、金融テキスト分類タスクに特化して微調整されており、文や段落を768次元のベクトル空間にマッピングすることができます。
テキスト埋め込み
S
nickmuchi
20
0
Deberta V3 Base Qa
これはsentence-transformersに基づくモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

D
jamescalam
17
1
Moco Sentencedistilbertv2.0
これはsentence-transformersに基づく韓英バイリンガルの文埋め込みモデルで、文を768次元のベクトル空間にマッピングでき、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み
Transformers 複数言語対応

M
bongsoo
39
1
Laprador F
sentence-transformersに基づく文の埋め込みモデルで、テキストを768次元のベクトル空間にマッピングでき、意味検索やテキストクラスタリングタスクに適しています。
テキスト埋め込み
Transformers

L
gemasphi
15
0
Bpr Gpl Bioasq Base Msmarco Distilbert Tas B
これはsentence-transformersに基づく文の類似度モデルで、文や段落を768次元の密ベクトル空間にマッピングでき、意味的検索やクラスタリングなどのタスクに適しています。
テキスト埋め込み
Transformers

B
income
41
0
Bpr Gpl Climate Fever Base Msmarco Distilbert Tas B
これはsentence-transformersに基づく文の埋め込みモデルで、テキストを768次元のベクトル表現に変換でき、意味検索やテキストの類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers

B
income
35
0
Bpr Gpl Fever Base Msmarco Distilbert Tas B
これはsentence-transformersに基づくモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、文の類似度計算、クラスタリング、意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

B
income
32
0
Bpr Gpl Nfcorpus Base Msmarco Distilbert Tas B
これはsentence - transformersに基づく文の埋め込みモデルで、テキストを768次元のベクトル表現に変換でき、意味検索やテキスト類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers

B
income
40
0
Bpr Gpl Quora Base Msmarco Distilbert Tas B
これはsentence-transformersに基づくモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

B
income
27
0
Bpr Gpl Scidocs Base Msmarco Distilbert Tas B
これはsentence-transformersに基づくモデルで、文や段落を768次元のベクトル空間にマッピングし、文の類似度計算や意味検索などのタスクに使用できます。
テキスト埋め込み
Transformers

B
income
23
0
Bpr Gpl Signal1m Base Msmarco Distilbert Tas B
これはsentence-transformersに基づくモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

B
income
25
0
- 1
- 2
- 3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98