# 密ベクトル表現

Sentence Transformers Multilingual E5 Base
これは多言語文変換モデルで、文や段落を768次元の密ベクトル空間にマッピングし、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
S
embaas
3,526
8
Setfit Zero Shot Classification Pbsp P4 Time
これはsentence-transformersに基づくモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
S
aammari
14
0
Klue Sroberta Base Continue Learning By Mnr
これはKLUE/NLIとKLUE/STSデータセットでトレーニングされた韓国語文埋め込みモデルで、sentence-transformersフレームワークを使用し、2段階のトレーニングにより文類似度タスクを最適化しています。
テキスト埋め込み Transformers 韓国語
K
bespin-global
88.10k
32
Sn Xlm Roberta Base Snli Mnli Anli Xnli
ゼロショットおよび少数ショットのテキスト分類のために訓練されたデュアルタワーネットワークモデルで、多言語文埋め込みをサポート
テキスト埋め込み Transformers 複数言語対応
S
symanto
801
61
S PubMedBert MS MARCO
MS-MARCOデータセットでPubMedBERTをファインチューニングした文変換モデルで、医学/健康テキスト分野の意味的類似度計算や情報検索タスクに適しています
テキスト埋め込み Transformers
S
pritamdeka
30.50k
28
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase