Qwen3 Embedding 4B GGUF
Apache-2.0
Qwen3-Embedding-4BはQwen3シリーズに基づいて構築されたテキスト埋め込みモデルで、テキスト埋め込みとソートタスクに特化して設計され、多言語テキスト処理やコード検索などの分野で優れた性能を発揮します。
テキスト埋め込み
Q
Mungert
723
1
Qwen3 Embedding 8B Auto
Apache-2.0
Qwen3 Embeddingモデルシリーズは通義ファミリーの最新の独自開発モデルで、テキスト埋め込みとソートタスク用に設計され、100種類以上の言語をサポートし、MTEB多言語ランキングで1位を獲得しています。
テキスト埋め込み
Q
michaelfeil
135
1
Gte Multilingual Reranker Base Onnx Op14 Opt Gpu Int8
MIT
これはAlibaba-NLP/gte-multilingual-reranker-baseの量子化ONNXバージョンで、INT8量子化を採用し、GPU向けに最適化されており、テキスト分類タスクに適しています。
テキスト埋め込み その他
G
JustJaro
91
1
Multilingual E5 Large Instruct Q6 K GGUF
MIT
多言語E5大型命令モデル、100以上の言語のテキスト埋め込みと分類タスクをサポート
大規模言語モデル 複数言語対応
M
kcccat
27
1
Multilingual E5 Large Instruct GGUF
MIT
多言語E5大型命令モデル、複数言語のテキスト埋め込みと分類タスクをサポート
大規模言語モデル 複数言語対応
M
Impulse2000
58
1
Multilingual E5 Large Instruct Q5 K M GGUF
MIT
多言語E5大型命令モデル、複数の言語とタスクをサポート、分類、検索、クラスタリングなど。
大規模言語モデル 複数言語対応
M
JHJHJHJHJ
18
1
Multilingual E5 Large Instruct Q3 K S GGUF
MIT
多言語E5大型命令モデル、複数の言語とタスクをサポート、分類、検索、クラスタリングなど。
大規模言語モデル 複数言語対応
M
yoeven
14
1
Multilingual E5 Large Instruct Q5 0 GGUF
MIT
多言語E5大型命令モデルで、複数の言語のテキスト埋め込みと分類タスクをサポートします。
大規模言語モデル 複数言語対応
M
yoeven
14
2
Armenian Text Embeddings 1
multilingual-e5-baseを最適化したアルメニア語テキスト埋め込みモデルで、意味検索と言語間理解をサポート
テキスト埋め込み
Transformers 複数言語対応

A
Metric-AI
578
18
Jina Embeddings V3 Separation Distilled
jinaai/jina-embeddings-v3に基づく蒸留バージョンで、計算リソースが限られているか、リアルタイム性能が求められるシーンに特化して設計され、多言語テキスト埋め込み計算をサポートします。
テキスト埋め込み
Safetensors
J
CISCai
3,294
2
Multilingual E5 Large Pooled
MIT
Multilingual E5 Largeは、多言語の文章変換器モデルで、文章の類似度と特徴抽出タスクに特化し、複数の言語をサポートしています。
テキスト埋め込み 複数言語対応
M
Hiveurban
3,803
2
Sentence Transformers Multilingual E5 Small
MIT
multilingual-e5-smallは、多言語テキスト処理タスクで優れた性能を発揮するモデルで、分類、検索、クラスタリング、再ランキング、意味的テキスト類似度などの様々なタスクをサポートします。
テキスト埋め込み 複数言語対応
S
beademiguelperez
3,922
1
Paraphrase Multilingual MiniLM L12 V2.gguf
Apache-2.0
50以上の言語をサポートする多言語文埋め込みモデル、テキスト類似度計算と意味的検索が可能
テキスト埋め込み 複数言語対応
P
mykor
188
1
Text2vec Base Multilingual
Apache-2.0
多言語対応のテキストベクトル化モデルで、文類似度計算と特徴抽出タスクに特化
テキスト埋め込み
Transformers 複数言語対応

T
barisaydin
17
0
Multilingual E5 Small 4096
intfloat/multilingual-e5-smallの局所スパースグローバル版で、約4kトークンをサポートする多言語テキスト埋め込みモデル
テキスト埋め込み
Transformers 複数言語対応

M
efederici
16
0
Multilingual E5 Base Xnli Anli
MIT
intfloat/multilingual-e5-baseをベースに、XNLIとANLIデータセットでファインチューニングされた多言語テキスト埋め込みモデル。ゼロショット分類タスクに適しています
テキスト分類
Transformers 複数言語対応

M
mjwong
73
0
Multilingual E5 Large Xnli
MIT
multilingual-e5-largeをXNLIデータセットでファインチューニングした多言語テキスト分類モデルで、15言語のゼロショット分類をサポート
大規模言語モデル
Transformers 複数言語対応

M
mjwong
21
6
E5 Base Multilingual 4096
E5-base-multilingual-4096はintfloat/multilingual-e5-baseのローカルスパースグローバルバージョンで、最大4096トークンの多言語テキスト埋め込みモデルを処理できます。
テキスト埋め込み
Transformers 複数言語対応

E
efederici
340
16
Distiluse Base Multilingual Cased V2 Finetuned Stsb Multi Mt Es
これはスペイン語の意味的類似性データセットでファインチューニングされたsentence-transformersモデルで、テキストを768次元のベクトル空間にマッピングし、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み
Transformers スペイン語

D
mrm8488
292
3
M BERT Distil 40
distilbert-base-multilingualをベースにしたモデルで、40言語の埋め込み空間に合わせて調整され、CLIPテキストエンコーダーの埋め込み空間と一致するように設計されています。
テキスト生成画像
Transformers 複数言語対応

M
M-CLIP
46
8
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98