# 高次元埋め込み

Jina Embeddings V4
Jina Embeddings v4は、マルチモーダルおよび多言語検索用に設計された汎用埋め込みモデルで、グラフ、表、イラストを含むビジュアルに富んだ複雑なドキュメントの検索に特に適しています。
マルチモーダル融合 Transformers その他
J
jinaai
669
36
KURE V1
MIT
KURE-v1は韓国語テキスト検索に最適化された埋め込みモデルで、BAAI/bge-m3を微調整しており、韓国語検索タスクで優れた性能を発揮します。
テキスト埋め込み
K
nlpai-lab
27.44k
37
Clip ViT B 32 Vision
MIT
CLIP ViT-B/32アーキテクチャに基づくONNX移植版で、画像分類と類似性検索タスクに適しています。
画像分類 Transformers
C
Qdrant
10.01k
7
Dfm Sentence Encoder Large Exp2 No Lang Align
これはsentence-transformersに基づく文エンコーダーモデルで、文や段落を1024次元の密なベクトル空間にマッピングでき、意味検索やクラスタリングなどのタスクに適しています。
テキスト埋め込み Transformers
D
KennethEnevoldsen
169
1
Bert Base Uncased
Apache-2.0
事前学習済みの双方向エンコーダで、ロシア語テキスト処理に適しており、大規模なソーシャルデータとウィキペディアで学習済み
大規模言語モデル Transformers 複数言語対応
B
deepvk
465
3
Vit Base Patch16 224.dino
Apache-2.0
自己教師ありDINO手法で訓練されたVision Transformer(ViT)画像特徴モデルで、画像分類や特徴抽出タスクに適しています。
画像分類 Transformers
V
timm
33.45k
5
Laprador Mmarco
これはsentence-transformersに基づく文の類似度モデルで、文や段落を768次元のベクトル空間にマッピングでき、クラスタリングや意味検索タスクに適しています。
テキスト埋め込み Transformers
L
gemasphi
15
0
All Mpnet Base V2 Feature Extraction
Apache-2.0
MPNetアーキテクチャに基づく文埋め込みモデルで、テキストを768次元ベクトル空間にマッピングでき、意味検索やテキスト類似性タスクに適しています
テキスト埋め込み 英語
A
guidecare
4,539
0
SBERT Large Nli V2
SBERT-large-nli-v2は、BERTベースの大規模な文変換モデルで、文の類似度計算と特徴抽出に特化しています。
テキスト埋め込み Transformers
S
Muennighoff
43
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase