E5 Base Korean
MIT
これはmultilingual-e5-baseモデルを基に韓国語向けに最適化された文埋め込みモデルで、多言語テキスト類似度計算と特徴抽出をサポートします。
テキスト埋め込み
Transformers 複数言語対応

E
upskyy
53
3
Supervised Ft Embedding 1203 V1
これはsentence-transformersベースの文埋め込みモデルで、テキストを768次元ベクトル空間にマッピングし、意味的類似性や特徴抽出タスクに適しています。
テキスト埋め込み
S
li-ping
19
0
Sbert All MiniLM L6 V2
これはsentence-transformersベースのモデルで、文や段落を384次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
patent
34
2
Econo Sentence V1
Apache-2.0
sentence-transformersベースの経済学分野における文埋め込みモデルで、テキストを768次元ベクトル空間にマッピング可能
テキスト埋め込み
Transformers 英語

E
samchain
34
1
E5 Small V2 Onnx
Apache-2.0
これは文を密ベクトル空間にマッピングする文変換モデルで、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み 英語
E
nixiesearch
221
0
All MiniLM L6 V2 Onnx
Apache-2.0
これはONNXベースの文変換モデルで、テキストを384次元ベクトル空間にマッピングし、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み 英語
A
nixiesearch
187
1
Sentence Transformers Gte Base
これはsentence-transformersベースの文埋め込みモデルで、文や段落を768次元のベクトル空間にマッピングでき、意味検索やクラスタリングなどのタスクに適しています。
テキスト埋め込み
S
embaas
43
0
Robbert 2022 Dutch Sentence Transformers
Apache-2.0
RobBERTモデルに基づくオランダ語の文埋め込みモデルで、テキストを768次元のベクトル空間にマッピングし、意味検索やテキスト類似度計算に適しています
テキスト埋め込み
Transformers その他

R
NetherlandsForensicInstitute
8,375
12
Text2vec Base Chinese Paraphrase
Apache-2.0
CoSENT手法で訓練された中国語テキストベクトル化モデル、文埋め込み、テキストマッチング、意味検索などのタスクをサポート
テキスト埋め込み
Transformers 中国語

T
shibing624
45.88k
76
Semantic Xlmr
sentence-transformersベースの多言語文埋め込みモデルで、特にベンガル語に最適化されており、意味的類似性計算やクラスタリング分析に適しています
テキスト埋め込み
Transformers

S
headlesstech
28
0
Paraphrastic Test
これはsentence-transformersベースの文埋め込みモデルで、テキストを1024次元のベクトル表現に変換でき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

P
jwieting
35
0
Moco Sentencedistilbertv2.1
これは蒸留BERTベースの文変換モデルで、韓国語と英語をサポートし、文の類似度計算と特徴抽出に使用されます。
テキスト埋め込み
Transformers 複数言語対応

M
bongsoo
37
2
Sbert All MiniLM L6 With Pooler
Apache-2.0
sentence-transformersベースのONNXモデルで、テキストを384次元ベクトル空間にマッピング可能。意味検索やクラスタリングタスクに適しています。
テキスト埋め込み 英語
S
optimum
3,867
6
TAACO STS
Sentence-transformersフレームワークでトレーニングされた韓国語文類似度モデル、文間の意味的一貫性を測定するために使用
テキスト埋め込み
Transformers 韓国語

T
KDHyun08
24
2
Sbert All MiniLM L12 With Pooler
Apache-2.0
これはsentence-transformersベースのONNXモデルで、文や段落を384次元の密ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers 英語

S
vamsibanda
31
0
All Mpnet Base V2 Feature Extraction
Apache-2.0
MPNetアーキテクチャに基づく文埋め込みモデルで、テキストを768次元ベクトル空間にマッピングでき、意味検索やテキスト類似性タスクに適しています
テキスト埋め込み 英語
A
guidecare
4,539
0
Bpr Gpl Webis Touche2020 Base Msmarco Distilbert Tas B
これはsentence-transformersベースのモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

B
income
41
0
Distilbert Base Uncased Finetuned Cust Similarity 2
sentence-transformersベースのモデルで、文や段落を128次元ベクトル空間にマッピングでき、意味検索やクラスタリングタスクに適しています
テキスト埋め込み
D
shafin
35
1
All MiniLM L6 V2
Apache-2.0
これはsentence-transformersベースの文埋め込みモデルで、テキストを384次元のベクトル空間にマッピングでき、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み 英語
A
obrizum
1,647
5
Paraphrase Spanish Distilroberta
sentence-transformersベースのスペイン語-英語バイリンガルモデルで、テキストを768次元ベクトル空間にマッピングでき、意味検索やクラスタリングタスクに適しています
テキスト埋め込み
Transformers スペイン語

P
somosnlp-hackathon-2022
17.25k
15
Stsb Xlm R Greek Transfer
Apache-2.0
これはXLM-Roberta-baseに基づく文変換モデルで、ギリシャ語と英語の意味的テキスト類似度タスクに特化しています。
テキスト埋め込み
Transformers 複数言語対応

S
lighteternal
1,219
6
Distiluse Base Multilingual Cased V2 Finetuned Stsb Multi Mt Es
これはスペイン語の意味的類似性データセットでファインチューニングされたsentence-transformersモデルで、テキストを768次元のベクトル空間にマッピングし、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み
Transformers スペイン語

D
mrm8488
292
3
Sup Simcse Bert Large Uncased
BERTアーキテクチャに基づく文埋め込みモデルで、対照学習により文表現を最適化し、特徴抽出タスクに適している
テキスト埋め込み
S
princeton-nlp
1,545
0
Paraphrase MiniLM L6 V2
Apache-2.0
このモデルは文や段落を384次元の密なベクトル空間にマッピングする文変換モデルで、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

P
DataikuNLP
38
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98