# 多言語埋め込み

Qwen3 Embedding 8B GGUF
Apache-2.0
Qwen3-Embedding-8BはQwenファミリーの最新の専用モデルで、テキスト埋め込みとソートタスク用に設計されており、Qwen3シリーズの密集型基礎モデルに基づいて構築され、卓越した多言語能力と長文理解能力を持っています。
テキスト埋め込み
Q
Mungert
612
1
Qwen3 Embedding 4B W4A16 G128
Apache-2.0
これはGPTQ量子化を施したQwen3-Embedding-4Bモデルで、VRAM使用量が大幅に削減され、性能損失が少ない。
テキスト埋め込み
Q
boboliu
141
1
Qwen3 Embedding 0.6B W4A16 G128
Apache-2.0
Qwen3-Embedding-0.6BのGPTQ量子化バージョン。VRAM使用量が最適化され、性能損失が少ない。
テキスト埋め込み
Q
boboliu
131
2
Multilingual E5 Large Pooled Q8 0 GGUF
MIT
多言語E5大型プーリングモデル、複数言語の文類似度計算と特徴抽出タスクをサポート。
テキスト埋め込み 複数言語対応
M
falan42
56
1
Dragonkue KoEn E5 Tiny
Apache-2.0
これはintfloat/multilingual-e5-smallからファインチューニングされたsentence-transformersモデルで、韓国語のクエリ-段落ペアを含むトレーニングデータを使用して、韓国語検索タスクのパフォーマンスを向上させています。
テキスト埋め込み 複数言語対応
D
exp-models
607
5
Jina Embeddings V4
Jina Embeddings v4は、マルチモーダルおよび多言語検索用に設計された汎用埋め込みモデルで、グラフ、表、イラストを含むビジュアルに富んだ複雑なドキュメントの検索に特に適しています。
マルチモーダル融合 Transformers その他
J
jinaai
669
36
Nomic Embed Text V2 GGUF
Apache-2.0
Nomic Embed Text V2 GGUF は70以上の言語をサポートする多言語テキスト埋め込みモデルで、文類似度計算や特徴抽出タスクに適しています。
テキスト埋め込み 複数言語対応
N
ggml-org
317
3
Bge Multilingual Gemma2 GPTQ
Apache-2.0
これはBAAI/bge-multilingual-gemma2モデルの4ビットGPTQ量子化バージョンで、多言語テキスト埋め込みタスクをサポートします。
テキスト埋め込み Transformers
B
shuyuej
34
5
Multilingual E5 Large Instruct Q8 0 GGUF
MIT
多言語E5大型命令モデル、複数言語のテキスト埋め込みと分類タスクをサポートし、強力なクロスランゲージ能力を備えています。
大規模言語モデル 複数言語対応
M
Gomez12
90
1
Nomic Embed Multimodal 7b
Apache-2.0
70億パラメータのマルチモーダル埋め込みモデルで、視覚的文書検索タスクに特化しており、Vidore-v2ベンチマークで優れた性能を発揮
テキスト生成画像 複数言語対応
N
nomic-ai
741
26
Nomic V2 Tuned 1
Apache-2.0
Nomic Embed Text v2 MoEに基づく文埋め込みモデル、文類似度と特徴抽出タスクに特化
テキスト埋め込み 英語
N
basilisk78
7,305
1
Embedder Collection
ドイツ語と英語の多言語埋め込みモデル、8192トークンのコンテキスト長をサポート
テキスト埋め込み 複数言語対応
E
kalle07
6,623
10
Granite Embedding 107m Multilingual Onnx
Apache-2.0
IBMが開発した107Mパラメータの多言語埋め込みモデルで、12の言語をサポートし、MTEBベンチマークテストで優れた性能を発揮します。
テキスト埋め込み Transformers 複数言語対応
G
gety-ai
53
1
Intfloat Triplet V2
これはintfloat/multilingual-e5-smallから微調整されたsentence-transformersモデルで、文や段落を384次元の密なベクトル空間にマッピングし、意味的テキスト類似度や意味検索などのタスクをサポートします。
テキスト埋め込み その他
I
x1saint
19
1
Nomic Embed Text V2 Moe Unsupervised
これは多言語混合専門家(MoE)テキスト埋め込みモデルの中間バージョンで、多段階の対照学習によって得られました
テキスト埋め込み
N
nomic-ai
161
5
Bge M3 Distill 8l
BAAI/bge-m3から蒸留された8層埋め込みモデルで、検索性能を維持しながら2.5倍の速度向上を実現
テキスト埋め込み
B
altaidevorg
249
7
SFR Embedding Code 400M R
Salesforceが研究したSFR-埋め込みモデルで、多言語・多タスクのコードおよびテキスト検索に適しており、複数のコード検索タスクで優れた性能を発揮します。
テキスト埋め込み Transformers その他
S
Salesforce
8,171
29
Snowflake Arctic Embed L V2.0 GGUF
Apache-2.0
Snowflake Arctic Embed L v2.0のGGUF量子化バージョンで、高品質な検索タスクに適した効率的な多言語テキスト埋め込みモデルです。
テキスト埋め込み
S
limcheekin
129
1
Granite Embedding 278m Multilingual GGUF
Apache-2.0
IBM Granite多言語埋め込みモデル、12言語のテキスト埋め込みタスクをサポート、情報検索や多言語アプリケーションシナリオに適しています。
テキスト埋め込み 複数言語対応
G
bartowski
4,815
3
Granite Embedding 107m Multilingual GGUF
Apache-2.0
IBM Graniteチームによって開発された多言語埋め込みモデルの量子化バージョンで、17種類の言語のテキスト埋め込みタスクをサポートし、検索や情報抽出などのシナリオに適しています。
テキスト埋め込み 複数言語対応
G
bartowski
15.19k
1
Qwen2.5 7B Embed Base
Apache-2.0
Qwen2.5-7B-embed-baseはTransformerアーキテクチャに基づく事前学習済み言語モデルで、高品質なテキスト埋め込みベクトル生成のために設計されています。
テキスト埋め込み 英語
Q
ssmits
85
1
Gte Base Ko
これはアリババNLP/gte-multilingual-baseモデルを基に、韓国語のトリプレットデータセットでファインチューニングされたsentence-transformersモデルで、意味的テキスト類似度などのタスクに使用されます。
テキスト埋め込み 複数言語対応
G
scottsuk0306
18
2
Snowflake Arctic Embed L V2.0
Apache-2.0
Snowflake Arctic Embed v2.0 は100以上の言語をサポートする多言語文埋め込みモデルで、テキスト特徴抽出と文類似度計算が可能です。
テキスト埋め込み Transformers 複数言語対応
S
Snowflake
231.00k
156
Snowflake Arctic Embed M V2.0
Apache-2.0
Snowflake Arctic Embed M v2.0 は50以上の言語をサポートする多言語文埋め込みモデルで、文の類似性と特徴抽出タスクに特化しています。
テキスト埋め込み Transformers 複数言語対応
S
Snowflake
92.30k
76
Jina Embeddings V3
Jina Embeddings V3は多言語の文埋め込みモデルで、100種類以上の言語をサポートし、文の類似度計算と特徴抽出タスクに特化しています。
テキスト埋め込み Transformers 複数言語対応
J
arkohut
506
4
BGE M3 Mindspore GGUF
BGE_M3_MindsporeのGGUF量子化バージョンで、さまざまなニーズに対応するための複数の量子化オプションを提供します。
大規模言語モデル 英語
B
mradermacher
49
1
Multilingual E5 Large Instruct GGUF
MIT
多言語E5大型命令モデル、100以上の言語のテキスト埋め込みと分類タスクをサポート
大規模言語モデル 複数言語対応
M
KeyurRamoliya
224
3
Bge M3 GGUF
MIT
本モデルはllama.cppを使用してBAAI/bge-m3から変換されたGGUF形式のモデルで、主に文の類似度計算と特徴抽出に使用されます。
テキスト埋め込み
B
KimChen
636
5
Bge M3 GGUF
MIT
このモデルはggml.aiのGGUF-my-repoスペースを使用し、llama.cppによってBAAI/bge-m3からGGUF形式に変換された文類似度モデルです。
テキスト埋め込み
B
bbvch-ai
266
1
E5 Base Korean
MIT
これはmultilingual-e5-baseモデルを基に韓国語向けに最適化された文埋め込みモデルで、多言語テキスト類似度計算と特徴抽出をサポートします。
テキスト埋め込み Transformers 複数言語対応
E
upskyy
53
3
Multilingual E5 Large Instruct GGUF
MIT
多言語e5シリーズは多言語埋め込みモデルの最適な選択肢の一つで、複数の言語とタスクをサポートします。
テキスト埋め込み
M
Ralriki
13.17k
5
BAAI Bge M3 Int8
MIT
BAAI/bge-m3のONNX INT8量子化バージョンで、密集検索タスクに適しており、Vespa Embeddingとの互換性を最適化しています。
テキスト埋め込み Transformers
B
libryo-ai
1,007
1
E5 Base Mlqa Finetuned Arabic For Rag
これはsentence-transformersに基づくモデルで、文や段落を768次元の稠密ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
E
OmarAlsaabi
92
5
Gte Base Onnx
Apache-2.0
GTE-Baseは汎用的なテキスト埋め込みモデルで、テキストを高次元ベクトル表現に変換でき、テキスト分類や類似性検索タスクに適しています。
テキスト埋め込み Transformers
G
Qdrant
31
3
Solon Embeddings Base 0.1
MIT
Solon埋め込みモデル基本版0.1は現在最先端のオープンソースフランス語埋め込みモデルで、フランス語と英語をサポートし、文の類似性と特徴抽出タスクに特化しています。
テキスト埋め込み Transformers 複数言語対応
S
OrdalieTech
2,250
14
Multilingual E5 Small Onnx
Apache-2.0
これは多言語文変換モデルで、テキストを密ベクトル空間にマッピングし、意味検索やクラスタリングタスクをサポートします
テキスト埋め込み 英語
M
nixiesearch
96
1
Multilingual E5 Small Optimized
MIT
これはmultilingual-e5-smallの量子化バージョンで、層ごとの量子化により推論性能を最適化し、同時に元のモデルの大部分の品質を維持しています。
テキスト埋め込み 複数言語対応
M
elastic
201
15
CT M1 Complete SE
CrisisTransformersは危機関連のソーシャルメディアテキスト向けの事前訓練済み言語モデルと文エンコーダーシリーズで、RoBERTaアーキテクチャに基づき、150億トークンの危機イベントデータセットで訓練されています。
テキスト埋め込み Transformers
C
crisistransformers
60
1
UNSEE CorInfoMax
これはsentence-transformersに基づく文の埋め込みモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み Transformers
U
asparius
16
0
Vectorizer.raspberry
Sinequaによって開発されたベクトル化ツールで、入力された段落やクエリから埋め込みベクトルを生成し、文の類似度計算や検索タスクに使用されます。
テキスト埋め込み Transformers 複数言語対応
V
sinequa
408
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase