# 高次元ベクトル

Qwen3 Embedding 8B GGUF
Apache-2.0
Qwen3-Embedding-8BはQwenファミリーの最新の専用モデルで、テキスト埋め込みとソートタスク用に設計されており、Qwen3シリーズの密集型基礎モデルに基づいて構築され、卓越した多言語能力と長文理解能力を持っています。
テキスト埋め込み
Q
Mungert
612
1
Plamo Embedding 1b
Apache-2.0
PLaMo-Embedding-1BはPreferred Networks社が開発した日本語テキスト埋め込みモデルで、日本語テキスト埋め込みベンチマークで優れた性能を発揮
テキスト埋め込み Transformers 日本語
P
pfnet
33.48k
25
Langcache Embed V1
これは阿里巴巴NLP/gte-modernbert-baseをファインチューニングしたsentence-transformersモデルで、セマンティックテキスト類似度計算に使用され、セマンティックキャッシュ機能を実現します。
テキスト埋め込み
L
redis
2,138
1
Vietnamese Embedding
BGE-M3をファインチューニングしたベトナム語埋め込みモデル、ベトナム語検索能力を強化
テキスト埋め込み その他
V
AITeamVN
14.26k
26
Modernbert Embed Base Legal MRL
Apache-2.0
ModernBERTをファインチューニングした法律分野の文埋め込みモデルで、多層次元出力をサポートし、法律テキストの類似度計算や情報検索タスクに適しています。
テキスト埋め込み 英語
M
AdamLucek
40
4
Gte Modernbert Base
Apache-2.0
ModernBERT事前学習エンコーダーに基づくテキスト埋め込みモデルで、8192トークンの長文処理をサポートし、MTEB、LoCO、COIRなどの評価タスクで優れた性能を発揮します。
テキスト埋め込み Transformers 英語
G
Alibaba-NLP
74.52k
138
Jina Embeddings V2 Base Code GGUF
Apache-2.0
Jina Embeddings V2 Base Codeは、Transformerアーキテクチャに基づく英語テキスト埋め込みモデルで、コード関連テキストの特徴抽出と文類似度計算に特化しています。
テキスト埋め込み 英語
J
gaianet
575
1
Jina Embeddings V2 Base Code GGUF
Apache-2.0
Jina Embeddings V2 Base Codeは、トランスフォーマーアーキテクチャに基づく英語の文埋め込みモデルで、コード関連テキストの特徴抽出と類似度計算に特化しています。
テキスト埋め込み 英語
J
second-state
315
1
Arabic English Sts Matryoshka V2.0
FacebookAI/xlm-roberta-largeをファインチューニングした二言語文変換モデルで、アラビア語と英語の意味的テキスト類似性計算をサポートします。
テキスト埋め込み 複数言語対応
A
omarelshehy
1,072
3
Dac 44khz
これは🤗 transformersベースの特徴抽出モデルで、具体的な機能と用途は追加情報が必要です。
大規模言語モデル Transformers
D
descript
192.61k
6
Mmlw Retrieval E5 Base
Apache-2.0
MMLW(私はより良いメッセージを得なければならない)はポーランド語のニューラルテキストエンコーダで、情報検索タスクに最適化されており、クエリと段落を768次元ベクトルに変換できます。
テキスト埋め込み Transformers その他
M
sdadas
144
1
Dfm Sentence Encoder Medium
これはsentence-transformersに基づく文エンコーダーモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み Transformers
D
KennethEnevoldsen
80
0
All Mpnet Base V2
Apache-2.0
MPNetアーキテクチャに基づく文埋め込みモデルで、テキストを384次元のベクトル空間にマッピングし、意味検索や文類似度タスクに適しています
テキスト埋め込み 英語
A
3gg
15
0
All Mpnet Base V2
Apache-2.0
MPNetアーキテクチャに基づく文埋め込みモデルで、テキストを768次元のベクトル空間にマッピングし、意味検索やテキスト類似度タスクに適しています
テキスト埋め込み 英語
A
diptanuc
138
1
All Mpnet Base V2
MIT
これはMPNetアーキテクチャに基づく文埋め込みモデルで、テキストを768次元ベクトル空間にマッピングでき、意味検索や文類似度タスクに適しています。
テキスト埋め込み 英語
A
navteca
14
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase