Multilingual E5 Large Pooled Q8 0 GGUF
MIT
多言語E5大型プーリングモデル、複数言語の文類似度計算と特徴抽出タスクをサポート。
テキスト埋め込み 複数言語対応
M
falan42
56
1
Nomic Embed Text V2 GGUF
Apache-2.0
Nomic Embed Text V2 GGUF は70以上の言語をサポートする多言語テキスト埋め込みモデルで、文類似度計算や特徴抽出タスクに適しています。
テキスト埋め込み 複数言語対応
N
ggml-org
317
3
GIST Embedding V0
MIT
GIST-Embedding-v0 は sentence-transformers ベースの文埋め込みモデルで、主に文の類似度計算と特徴抽出タスクに使用されます。
テキスト埋め込み 英語
G
avsolatorio
252.21k
26
Multilingual E5 Large Instruct Q8 0 GGUF
MIT
多言語E5大型命令モデル、複数言語のテキスト埋め込みと分類タスクをサポートし、強力なクロスランゲージ能力を備えています。
大規模言語モデル 複数言語対応
M
Gomez12
90
1
Mxbai Rerank Large V2 GGUF
Apache-2.0
mxbai-rerank-large-v2は多言語テキストリランキングモデルで、複数の言語と量子化フォーマットをサポートし、様々なハードウェア環境に適しています。
テキスト埋め込み 複数言語対応
M
Mungert
2,209
2
Mxbai Rerank Large V2 Seq
Apache-2.0
多言語対応のセンテンストランスフォーマーモデルで、テキストソートタスクに適しています
大規模言語モデル
Transformers 複数言語対応

M
michaelfeil
210
8
Bge Reranker V2 M3 Q8 0 GGUF
Apache-2.0
これはBAAI/bge-reranker-v2-m3モデルを変換したGGUF形式のテキストソートモデルで、多言語テキスト埋め込み推論をサポートします。
テキスト埋め込み その他
B
pqnet
54
0
Nomic Embed Text V2 Moe Unsupervised
これは多言語混合専門家(MoE)テキスト埋め込みモデルの中間バージョンで、多段階の対照学習によって得られました
テキスト埋め込み
N
nomic-ai
161
5
Multilingual E5 Large Instruct GGUF
MIT
多言語E5大型命令モデル、複数言語のテキスト埋め込みと分類タスクをサポート
大規模言語モデル 複数言語対応
M
Impulse2000
58
1
Lb Reranker 0.5B V1.0 GGUF
Apache-2.0
これは0.5Bパラメータのテキストリランキングモデルで、複数言語のテキスト並べ替えタスクをサポートしています。
大規模言語モデル 複数言語対応
L
bartowski
1,616
4
Multilingual E5 Large Instruct Q3 K S GGUF
MIT
多言語E5大型命令モデル、複数の言語とタスクをサポート、分類、検索、クラスタリングなど。
大規模言語モデル 複数言語対応
M
yoeven
14
1
Colqwen2 2b V1.0
Qwen2-VL-2B-InstructとColBERT戦略に基づく視覚検索モデルで、マルチベクトルのテキストと画像表現を生成可能
テキスト生成画像 複数言語対応
C
tsystems
700
1
Gme Qwen2 VL 7B Instruct
Apache-2.0
Qwen2-VL-7B-Instruct は Qwen2 アーキテクチャに基づくマルチモーダル視覚言語モデルで、中国語と英語をサポートし、さまざまな自然言語処理タスクに適しています。
テキスト生成画像
Transformers 複数言語対応

G
Alibaba-NLP
3,844
34
Granite Embedding 278m Multilingual GGUF
Apache-2.0
IBM Granite多言語埋め込みモデル、12言語のテキスト埋め込みタスクをサポート、情報検索や多言語アプリケーションシナリオに適しています。
テキスト埋め込み 複数言語対応
G
bartowski
4,815
3
Snowflake Arctic Embed M V2.0
Apache-2.0
Snowflake Arctic Embed M v2.0 は50以上の言語をサポートする多言語文埋め込みモデルで、文の類似性と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers 複数言語対応

S
Snowflake
92.30k
76
Arabic English Sts Matryoshka V2.0
FacebookAI/xlm-roberta-largeをファインチューニングした二言語文変換モデルで、アラビア語と英語の意味的テキスト類似性計算をサポートします。
テキスト埋め込み 複数言語対応
A
omarelshehy
1,072
3
Gte Qwen2 1.5B Instruct GGUF
Apache-2.0
Qwen2アーキテクチャに基づく7Bパラメータ規模の文埋め込みモデルで、文類似度タスクに特化しており、MTEBベンチマークテストで優れた性能を発揮します。
大規模言語モデル
G
mav23
169
2
Bge Reranker V2 M3 En Ru
MIT
これはBAAI/bge-reranker-v2-m3の簡素化バージョンで、英語とロシア語の語彙表のみを保持しており、元のモデルより1.5倍小さく、同じ埋め込みベクトルを生成できます。
テキスト埋め込み
Transformers 複数言語対応

B
qilowoq
677
6
Multilingual E5 Large Instruct GGUF
MIT
多言語E5大型命令モデル、100以上の言語のテキスト埋め込みと分類タスクをサポート
大規模言語モデル 複数言語対応
M
KeyurRamoliya
224
3
Ru En RoSBERTa
MIT
RoBERTaアーキテクチャに基づくバイリンガル(ロシア語-英語)テキスト処理モデル、様々な分類と検索タスクに適応
テキスト埋め込み
Transformers 複数言語対応

R
ai-forever
15.95k
37
Gte Multilingual Reranker Base
Apache-2.0
GTEシリーズ初の多言語リランキングモデルで、70以上の言語をサポートし、高性能かつ長文処理能力を備えています。
テキスト埋め込み
Transformers 複数言語対応

G
Alibaba-NLP
239.91k
122
All Indo E5 Small V4
これはsentence-transformersベースのインドネシア語テキスト埋め込みモデルで、文や段落を384次元の密ベクトル空間にマッピングし、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

A
LazarusNLP
3,039
7
Colbert Xm
MIT
ColBERT-XMは、ColBERTアーキテクチャに基づく多言語パラグラフ検索モデルで、複数言語の文類似度計算とパラグラフ検索タスクをサポートします。
テキスト埋め込み
Safetensors 複数言語対応
C
antoinelouis
29.07k
61
Bce Embedding Base V1
Apache-2.0
BCEmbeddingはNetEase Youdaoが開発したバイリンガルクロスランゲージ埋め込みモデルライブラリで、EmbeddingModel(意味ベクトル生成)とRerankerModel(結果精密ランキング)の2種類のモデルを含みます。Youdaoの検索拡張生成(RAG)システムのコアコンポーネントとして、オープンソースプロジェクトQAnythingやYoudao速読、Youdao翻訳などの製品にすでに成功裏に適用されています。
テキスト埋め込み
Transformers 複数言語対応

B
maidalun1020
69.82k
375
Ko Reranker
MIT
BAAI/bge-reranker-largeを韓国語データでファインチューニングしたRerankerモデルで、韓国語検索拡張生成(RAG)の性能向上に使用
テキスト埋め込み
Transformers 複数言語対応

K
Dongjin-kr
34.08k
59
Sentence Swissbert
スイスの多言語ニュースデータで訓練された文埋め込みモデルで、スイスの4つの公用語をサポート
テキスト埋め込み
Transformers 複数言語対応

S
jgrosjean-mathesis
169
2
Eubert Cross Encoder V1
EUBERT MLMモデルは文変換器トレーニングセットでファインチューニングされ、EU24言語をサポートするクロスエンコーダになりました
テキスト埋め込み
Transformers

E
scampion
37
0
Paraphrase Multilingual MiniLM L12 V2.gguf
Apache-2.0
50以上の言語をサポートする多言語文埋め込みモデル、テキスト類似度計算と意味的検索が可能
テキスト埋め込み 複数言語対応
P
mykor
188
1
Simcse Dist Mpnet Paracrawl Cs En
Seznam/dist-mpnet-paracrawl-cs-enモデルを基に、SimCSE目標で微調整したチェコ語-英語意味埋め込みモデル
テキスト埋め込み
Transformers 複数言語対応

S
Seznam
2,997
3
Dist Mpnet Paracrawl Cs En
BERT-smallアーキテクチャに基づく蒸留モデルで、チェコ語-英語の意味埋め込みに特化
テキスト埋め込み
Transformers 複数言語対応

D
Seznam
393
4
Sentence Transformers Multilingual E5 Large
MIT
これはsentence-transformersベースの多言語文埋め込みモデルで、テキストを1024次元ベクトル空間にマッピングし、意味的検索やクラスタリングタスクに適しています。
テキスト埋め込み
S
smart-tribune
276
0
CT M1 Complete SE
CrisisTransformersは危機関連のソーシャルメディアテキスト向けの事前訓練済み言語モデルと文エンコーダーシリーズで、RoBERTaアーキテクチャに基づき、150億トークンの危機イベントデータセットで訓練されています。
テキスト埋め込み
Transformers

C
crisistransformers
60
1
Multilingual E5 Small 4096
intfloat/multilingual-e5-smallの局所スパースグローバル版で、約4kトークンをサポートする多言語テキスト埋め込みモデル
テキスト埋め込み
Transformers 複数言語対応

M
efederici
16
0
Distiluse Base Multilingual Cased V2
Apache-2.0
これは多言語文埋め込みモデルで、テキストを512次元ベクトル空間にマッピングし、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み
Transformers その他

D
lorenpe2
32
0
E5 Base Multilingual 4096
E5-base-multilingual-4096はintfloat/multilingual-e5-baseのローカルスパースグローバルバージョンで、最大4096トークンの多言語テキスト埋め込みモデルを処理できます。
テキスト埋め込み
Transformers 複数言語対応

E
efederici
340
16
Sentence Transformers Multilingual E5 Base
これは多言語文変換モデルで、文や段落を768次元の密ベクトル空間にマッピングし、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
S
embaas
3,526
8
Sentence Transformers Paraphrase Multilingual Mpnet Base V2
Apache-2.0
多言語文埋め込みモデル、テキストを768次元ベクトル空間にマッピング可能、意味検索やクラスタリングタスクに適応
テキスト埋め込み
Transformers

S
tgsc
17
1
Semantic Xlmr
sentence-transformersベースの多言語文埋め込みモデルで、特にベンガル語に最適化されており、意味的類似性計算やクラスタリング分析に適しています
テキスト埋め込み
Transformers

S
headlesstech
28
0
Moco Sentencedistilbertv2.1
これは蒸留BERTベースの文変換モデルで、韓国語と英語をサポートし、文の類似度計算と特徴抽出に使用されます。
テキスト埋め込み
Transformers 複数言語対応

M
bongsoo
37
2
Paraphrase Spanish Distilroberta
sentence-transformersベースのスペイン語-英語バイリンガルモデルで、テキストを768次元ベクトル空間にマッピングでき、意味検索やクラスタリングタスクに適しています
テキスト埋め込み
Transformers スペイン語

P
somosnlp-hackathon-2022
17.25k
15
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98