# 文の類似度計算

GIST Embedding V0
MIT
GIST-Embedding-v0 は sentence-transformers ベースの文埋め込みモデルで、主に文の類似度計算と特徴抽出タスクに使用されます。
テキスト埋め込み 英語
G
avsolatorio
252.21k
26
Sentest
これはBERTに基づく文変換器モデルで、文の類似度計算と意味検索タスクに使用されます。
テキスト埋め込み TensorBoard 英語
S
palusi
18
1
Gte Small Q8 0 GGUF
MIT
GTE-small は効率的な文埋め込みモデルで、thenlper/gte-small ベースモデルに基づき、文の類似度タスクに特化しています。
テキスト埋め込み 英語
G
ggml-org
66
1
Word Order Jina
これはjina-embeddings-v2-base-enをファインチューニングした文変換モデルで、文の埋め込みベクトルを生成し意味的類似度を計算します。
テキスト埋め込み 英語
W
bwang0911
37
4
Mpnet Base All Nli Triplet Turkish V3
Apache-2.0
これはmicrosoft/mpnet-baseをファインチューニングしたsentence-transformersモデルで、文や段落のベクトル表現に使用され、意味的テキスト類似度などのタスクをサポートします。
テキスト埋め込み 英語
M
mertcobanov
27
1
Jina Embeddings V3
Jina Embeddings V3は多言語の文埋め込みモデルで、100種類以上の言語をサポートし、文の類似度計算と特徴抽出タスクに特化しています。
テキスト埋め込み Transformers 複数言語対応
J
arkohut
506
4
Stella En 1.5B V5 GGUF
MIT
Stella_en_1.5B_v5は英語ベースのテキスト生成モデルで、パラメータ規模は15億で、文の類似度などのタスクに適しています。
大規模言語モデル 英語
S
abhishekbhakat
113
3
Snowflake Arctic Embed M V1.5
Apache-2.0
Snowflake Arctic Embed M v1.5は、文の類似度計算と特徴抽出タスクに特化した効率的な文埋め込みモデルです。
テキスト埋め込み
S
Snowflake
219.46k
58
Vietnamese Embedding
Apache-2.0
ベトナム語用に設計された埋め込みモデルで、PhoBERTをベースに最適化されており、ベトナム語の文を768次元のベクトル空間にエンコードでき、意味検索やテキストクラスタリングなどの様々なシーンに適用できます。
テキスト埋め込み Transformers その他
V
dangvantuan
6,063
32
Gte Qwen1.5 7B Instruct
Apache-2.0
Qwen1.5アーキテクチャに基づく7Bパラメータ規模の文埋め込みモデルで、文の類似度計算とマルチタスク評価に特化
テキスト埋め込み Transformers
G
Alibaba-NLP
253
103
Snowflake Arctic Embed Xs
Snowflake Arctic Embed XS は軽量な文埋め込みモデルで、文の類似度と特徴抽出タスクに特化しています。
テキスト埋め込み Transformers
S
Snowflake
125.31k
35
Snowflake Arctic Embed S
Apache-2.0
Snowflake Arctic Embed S は文の類似度タスクに特化した埋め込みモデルで、Snowflake社によって開発されました。分類、クラスタリング、検索など、さまざまなテキスト関連タスクで優れた性能を発揮します。
テキスト埋め込み Transformers
S
Snowflake
32.13k
20
Snowflake Arctic Embed M Long
Apache-2.0
Snowflake Arctic M Long は sentence-transformers ベースの文埋め込みモデルで、文の類似度と特徴抽出タスクに特化しています。
テキスト埋め込み Transformers
S
Snowflake
23.79k
38
E5 Base V2 Gguf
MIT
e5-base-v2埋め込みモデルのGGUF形式のファイルで、文の類似度計算などのタスクに使用され、最大512トークンのコンテキストをサポートします。
テキスト埋め込み 英語
E
ChristianAzinn
168
2
GIST All MiniLM L6 V2
MIT
GIST-all-MiniLM-L6-v2は、文の類似度タスクに特化したSentence-Transformersモデルで、特徴抽出、分類、検索、クラスタリングなどの様々な自然言語処理シーンに適しています。
テキスト埋め込み 英語
G
avsolatorio
99.17k
9
Anita
Apache-2.0
イタリア語の質問と回答タスク用に特別に設計された文変換モデルで、イタリア語のテキストを解析し、最も答えが含まれる可能性のある文脈を予測できます。
質問応答システム Transformers その他
A
DeepMount00
134
26
Labse Mari
これはLaBSEアーキテクチャに基づく文変換器モデルで、ロシア語 - マリ語ペアに特化して微調整され、文や段落を768次元の稠密ベクトル空間にマッピングできます。
テキスト埋め込み
L
lingtrain
17
2
Sentence Embedding LaBSE
Apache-2.0
LaBSEは多言語文埋め込みモデルで、109言語の文を共有のベクトル空間にマッピングできます。
テキスト埋め込み Transformers 複数言語対応
S
kev216
19
2
Ember V1
MIT
Ember v1 は sentence-transformers に基づく埋め込みモデルで、主に特徴抽出と文の類似度計算に使用されます。
テキスト埋め込み Transformers 英語
E
llmrails
51.52k
62
Sinhala Roberta Sentence Transformer
これはsentence - transformersに基づくモデルで、シンハラ語の文を768次元のベクトル空間にマッピングし、文の類似度計算や意味検索などのタスクをサポートします。
テキスト埋め込み Transformers
S
Ransaka
16
0
Gte Small
MIT
GTE-smallは、文の類似度計算、テキスト分類、検索など、さまざまな自然言語処理タスクに適した小型の汎用テキスト埋め込みモデルです。
テキスト埋め込み 英語
G
thenlper
450.86k
158
Mpnet Mnr V2 Fine Tuned
これはsentence-transformersベースのモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み Transformers
M
BlazingFringe
94
2
Kpf Sbert 128d V1
これはsentence-transformersに基づく文のエンベディングモデルで、文や段落を128次元の密ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
K
bongsoo
759
3
Tamil Sentence Bert Nli
これはNLIデータセットを用いて訓練されたタミル語のBERTモデルで、文の類似度計算と特徴抽出に使用されます。
テキスト埋め込み Transformers その他
T
l3cube-pune
214
1
Hubert Base Cc Sentence Transformer
これはsentence - transformersに基づくハンガリー語文埋め込みモデルで、テキストを768次元ベクトル空間にマッピングでき、意味検索やテキスト類似度計算などのタスクに適しています。
テキスト埋め込み Transformers その他
H
danieleff
33
0
Sbert Jsnli Luke Japanese Base Lite
Apache-2.0
これはsentence-transformersに基づく日本語の文埋め込みモデルで、文や段落を768次元のベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み Transformers 日本語
S
oshizo
9,113
35
Indo Sentence Bert Base
Apache-2.0
これはsentence - transformersに基づくインドネシア語の文埋め込みモデルで、テキストを768次元のベクトル空間にマッピングできます。
テキスト埋め込み Transformers その他
I
firqaaa
1,367
17
Deberta Sentence Transformer
これはDeBERTaアーキテクチャに基づく文変換器モデルで、文や段落を768次元の密集ベクトル空間にマッピングでき、意味検索やクラスタリングなどのタスクに適しています。
テキスト埋め込み Transformers
D
embedding-data
825
5
All Mpnet Base V2 Feature Extraction Pipeline
Apache-2.0
MPNetアーキテクチャに基づく文埋め込みモデルで、テキストを768次元ベクトル空間にマッピングし、意味検索や文の類似度計算に適しています
テキスト埋め込み 英語
A
questgen
78
3
Fever Msmarco Distilbert Gpl
これはsentence-transformersに基づくモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み Transformers
F
GPL
35
0
Dense Encoder Msmarco Distilbert Word2vec256k
msmarco-word2vec256000-distilbert-base-uncasedに基づく文エンコーダーで、word2vecで初期化された256kの語彙を使用し、文の類似度タスクに特化して設計されています。
テキスト埋め込み Transformers
D
vocab-transformers
38
0
Declutr Sci Base
Apache-2.0
SciBERTに基づく科学テキストの文エンコーダーで、自己教師付き学習により200万本の科学論文で学習されました。
テキスト埋め込み 英語
D
johngiorgi
50
9
Bert Stsb Cross Encoder
sentence-transformersに基づくクロスエンコーダモデルで、文の類似度計算に使用され、特に意味検索タスクに適しています。
テキスト埋め込み Transformers
B
jamescalam
286
1
Labse En Ru
LaBSEモデルをベースに簡略化された英語とロシア語専用のバージョンで、元の埋め込み品質を維持しながらモデルサイズを大幅に縮小しています。
テキスト埋め込み Transformers 複数言語対応
L
cointegrated
375.34k
51
Sbert Base Chinese Nli
Apache-2.0
UER - pyで事前学習された中国語文の埋め込みモデルで、文の類似度を計算するために使用されます。
テキスト埋め込み Transformers 中国語
S
uer
8,054
124
SGPT 2.7B Weightedmean Msmarco Specb Bitfit
SGPT-2.7Bは加重平均法に基づく文変換モデルで、文の類似度タスクに特化しており、MSMARCOデータセットで訓練され、BitFit技術が適用されています。
テキスト埋め込み
S
Muennighoff
85
3
SGPT 1.3B Weightedmean Msmarco Specb Bitfit
SGPT-1.3Bは加重平均とbitfit技術に基づいて最適化された文変換器モデルで、主に文の類似度と特徴抽出タスクに使用されます。
テキスト埋め込み
S
Muennighoff
87
5
SGPT 5.8B Weightedmean Msmarco Specb Bitfit
SGPT-5.8Bは加重平均法に基づく文変換モデルで、文の類似度タスクに特化しており、msmarcoデータセットで訓練され、specb-bitfit技術を適用して最適化されています。
テキスト埋め込み
S
Muennighoff
164
23
SBERT Large Nli V2
SBERT-large-nli-v2は、BERTベースの大規模な文変換モデルで、文の類似度計算と特徴抽出に特化しています。
テキスト埋め込み Transformers
S
Muennighoff
43
1
SBERT Base Nli V2
SBERT-base-nli-v2は、トランスフォーマーベースの文埋め込みモデルで、文の類似度計算と意味検索タスクに特化しています。
テキスト埋め込み Transformers
S
Muennighoff
138
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase