All MiniLM L6 V2 GGUF
Apache-2.0
all-MiniLM-L6-v2はMiniLMアーキテクチャに基づく小型で効率的な文埋め込みモデルで、文の類似度計算や特徴抽出タスクに適しています。
テキスト埋め込み 英語
A
Mungert
1,094
2
Snowflake Arctic Embed L
Apache-2.0
Snowflake Arctic Embed L は文の類似度と特徴抽出に特化したモデルで、様々な自然言語処理タスクに適しています。
テキスト埋め込み
Transformers

S
Snowflake
50.58k
93
All MiniLM L12 V2 GGUF
Apache-2.0
BERTベースの軽量文埋め込みモデルで、文の類似度を効率的に計算するために使用されます。
テキスト埋め込み 英語
A
leliuga
1,169
4
Robbert 2023 Dutch Base Cross Encoder
Transformersライブラリに基づく文埋め込みモデルで、文のベクトル表現を生成し、テキストランキングタスクをサポートします。
テキスト埋め込み
Transformers

R
NetherlandsForensicInstitute
118
2
K Finance Sentence Transformer
これはsentence-transformersベースの文埋め込みモデルで、テキストを768次元のベクトル空間にマッピングし、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み
Transformers

K
ohsuz
160
1
Turkish Mini Bert Uncased Mean Nli Stsb Tr
MIT
これはトルコ語に特化した小型BERTモデルで、文や段落のベクトル表現に適しており、クラスタリングや意味的検索などのタスクに使用できます。
テキスト埋め込み
Transformers その他

T
atasoglu
22
1
M2 Bert 80M 2k Retrieval
Apache-2.0
これは8000万パラメータのM2-BERT事前学習チェックポイントで、シーケンス長2048をサポートし、長文コンテキスト検索タスク向けにファインチューニングされています。
テキスト埋め込み
Transformers 英語

M
togethercomputer
538
15
E5 Large V2 Onnx
Apache-2.0
これは文や段落を密なベクトル空間にマッピングする文変換モデルで、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み 英語
E
nixiesearch
114
0
Wikimedical Sent Biobert
BioBERTベースの文変換モデルで、医学ウィキペディアコンテンツに特化して最適化されており、文の類似度計算に使用されます
テキスト埋め込み
Transformers

W
nuvocare
118
3
Finetuned Bge Embeddings
これはsentence-transformersベースのモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

F
austinpatrickm
17
0
M E5 Large Bs64 10 All Languages
これはsentence-transformersベースのモデルで、文や段落を1024次元の密なベクトル空間にマッピングし、文の類似度計算や意味検索などのタスクに使用できます。
テキスト埋め込み
M
mrm8488
73
1
Text2vec Bge Large Chinese
Apache-2.0
CoSENTアルゴリズムに基づく中国語意味マッチングモデルで、文を1024次元の密ベクトル空間にマッピングでき、文埋め込み、テキストマッチング、意味検索などのタスクに適しています。
テキスト埋め込み
Transformers 中国語

T
shibing624
1,791
40
All Mpnet Base V2
Apache-2.0
MPNetアーキテクチャに基づく文埋め込みモデルで、テキストを384次元のベクトル空間にマッピングし、意味検索や文類似度タスクに適しています
テキスト埋め込み 英語
A
3gg
15
0
All Mpnet Base V2
Apache-2.0
MPNetアーキテクチャに基づく文埋め込みモデルで、テキストを768次元のベクトル空間にマッピングし、意味検索やテキスト類似度タスクに適しています
テキスト埋め込み 英語
A
diptanuc
138
1
Punjabi Sentence Bert Nli
これはNLIデータセットでトレーニングされたパンジャーブ語BERTモデルで、文の類似度計算と特徴抽出に使用されます。
テキスト埋め込み
Transformers その他

P
l3cube-pune
14
1
Bert Large Portuguese Cased Legal Tsdae Gpl Nli Sts MetaKD V0
MIT
これはBERTimbauを基にした大型ポルトガル語法律分野の文変換モデルで、法律文書の意味的類似度タスクに特化しています。
テキスト埋め込み
Transformers その他

B
stjiris
63
2
Rubert Tiny Bviolet
これはsentence-transformersに基づく文埋め込みモデルで、テキストを312次元ベクトル空間にマッピングでき、意味検索やテキスト類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers

R
pouxie
46
2
All MiniLM L6 V2 128dim
Apache-2.0
これはMiniLMアーキテクチャに基づく文埋め込みモデルで、テキストを384次元のベクトル空間にマッピングし、意味検索や文類似度計算などのタスクに適しています。
テキスト埋め込み 英語
A
freedomfrier
1,377
0
Book Reviews
これはsentence-transformersに基づく文埋め込みモデルで、テキストを768次元のベクトル表現に変換でき、意味検索やテキスト類似度計算などのタスクに適しています。
テキスト埋め込み
B
lksfr
14
0
From Classifier V0
これはsentence-transformersに基づく文埋め込みモデルで、テキストを768次元のベクトル表現に変換できます。
テキスト埋め込み
Transformers

F
futuredatascience
14
0
Biobert Mnli Snli Scinli Scitail Mednli Stsb
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

B
pritamdeka
53.20k
43
Congen BERT Small
Apache-2.0
これはConGenフレームワークに基づくBERTの小型モデルで、文を512次元のベクトル空間にマッピングするために使用され、意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

C
kornwtp
13
0
Qqp Nli Training Paraphrase Multilingual MiniLM L12 V2
これはsentence-transformersベースの文類似度モデルで、テキストを384次元ベクトル空間にマッピングし、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み
Transformers

Q
TingChenChang
13
0
Legal BERTimbau Sts Base Ma
これはBERTimbauを基にしたポルトガル語法律分野の文埋め込みモデルで、文の類似度計算タスクに特化しています。
テキスト埋め込み
Transformers その他

L
rufimelo
16
1
Distilbert Base Uncased Finetuned Cust Similarity 1
これはDistilBERTベースの文埋め込みモデルで、文や段落を32次元の密なベクトル空間にマッピングでき、文の類似度計算、意味検索、クラスタリングなどのタスクに適しています。
テキスト埋め込み
D
shafin
23
1
All Mpnet Base V2
Apache-2.0
これはMPNetアーキテクチャに基づく文埋め込みモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、意味検索やクラスタリングなどのタスクに適しています。
テキスト埋め込み 英語
A
obrizum
34
1
Bioasq Msmarco Distilbert Gpl
これはsentence-transformersベースの文類似度モデルで、文や段落を768次元の密なベクトル空間にマッピングできます。
テキスト埋め込み
Transformers

B
GPL
29
0
All MiniLM L6 V2
Apache-2.0
MiniLMアーキテクチャに基づく軽量な文埋め込みモデルで、テキストを384次元ベクトル空間にマッピングでき、意味検索やクラスタリングタスクに適しています
テキスト埋め込み 英語
A
optimum
171.02k
18
Model Paraphrase Multilingual MiniLM L12 V2 10 Epochs
これはsentence-transformersベースのモデルで、文や段落を384次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

M
jfarray
11
0
Model Distiluse Base Multilingual Cased V1 1 Epochs
これはsentence-transformersベースのモデルで、文や段落を512次元の密なベクトル空間にマッピングし、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
M
jfarray
30
0
Model Dccuchile Bert Base Spanish Wwm Uncased 100 Epochs
これはsentence-transformersに基づくモデルで、文や段落を256次元のベクトル空間にマッピングし、クラスタリングや意味検索などのタスクに使用できます。
テキスト埋め込み
M
jfarray
23
0
All Mpnet Base V2
MIT
これはMPNetアーキテクチャに基づく文埋め込みモデルで、テキストを768次元ベクトル空間にマッピングでき、意味検索や文類似度タスクに適しています。
テキスト埋め込み 英語
A
navteca
14
1
Text2vec Base Chinese
Apache-2.0
CoSENT(コサイン文)モデルに基づく中国語テキスト埋め込みモデルで、文を768次元の密なベクトル空間にマッピングでき、文埋め込み、テキストマッチング、意味検索などのタスクに適しています。
テキスト埋め込み 中国語
T
shibing624
605.98k
718
Stsb M Mt Es Distiluse Base Multilingual Cased V1
これはdistiluse-base-multilingual-cased-v1を基にしたスペイン語文類似度モデルで、stsb_multi_mtデータセットでファインチューニングされています。
テキスト埋め込み スペイン語
S
eduardofv
59
2
Sup Simcse Roberta Large
RoBERTa-largeベースの教師ありSimCSEモデルで、文埋め込みと特徴抽出タスクに使用されます。
テキスト埋め込み
S
princeton-nlp
276.47k
25
Multi Qa Distilbert Base Uncased
これはDistilBERTベースの文埋め込みモデルで、文や段落を768次元のベクトル空間にマッピングでき、意味検索や文類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers

M
jgammack
33
0
Sbertimbau Base Allnli Mnrl
これはsentence-transformersに基づく文類似度モデルで、文や段落を768次元の密ベクトル空間にマッピングできます。
テキスト埋め込み
Transformers

S
ricardo-filho
18
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98