Gte Qwen2 1.5B Instruct 4bit Dwq
Apache-2.0
Qwen2アーキテクチャに基づく1.5Bパラメータ規模の中国語・英語バイリンガル汎用テキスト埋め込みモデルで、文の類似度計算とテキスト検索タスクに特化しています。
テキスト埋め込み
Transformers

G
mlx-community
22
1
LENS D8000
Apache-2.0
LENS-8000は、トランスフォーマーに基づくテキスト埋め込みモデルで、特徴抽出と文の類似度タスクに特化しており、複数の分類と検索タスクで優れた性能を発揮します。
テキスト埋め込み
Transformers

L
yibinlei
848
6
Speed Embedding 7b Instruct
MIT
Speed Embedding 7B Instructは、Transformerアーキテクチャに基づく大規模言語モデルで、テキスト埋め込みと分類タスクに特化しており、複数のベンチマークテストで優れた性能を発揮します。
大規模言語モデル
Transformers 英語

S
Haon-Chen
37
5
Gte Qwen2 7B Instruct GGUF
Apache-2.0
Qwen2アーキテクチャに基づく7Bパラメータ規模の命令微調整モデルで、文の類似性計算とテキスト埋め込みタスクに特化
大規模言語モデル
G
mav23
118
1
Gte Qwen2 7B Instruct
Apache-2.0
Qwen2アーキテクチャに基づく7Bパラメータ規模の大規模言語モデルで、文類似度計算とテキスト埋め込みタスクに特化しています。
大規模言語モデル
Transformers

G
Alibaba-NLP
169.82k
398
B1ade Embed
これはbert-large-uncased、WhereIsAI/UAE-Large-V1、BAAI/bge-large-en-v1.5、mixedbread-ai/mxbai-embed-large-v1、avsolatorio/GIST-large-Embedding-v0などの複数のベースモデルを統合したモデルで、主にテキスト分類、検索、クラスタリングタスクに使用されます。
テキスト埋め込み
Transformers

B
w601sxs
660
4
Llm2vec Meta Llama 3 8B Instruct Mntp Supervised
MIT
LLM2VecはMeta-Llama-3に基づく教師あり学習モデルで、文の類似度などの自然言語処理タスクに特化しており、テキスト埋め込み、情報検索、テキスト分類などの様々なアプリケーションシーンをサポートします。
大規模言語モデル 英語
L
McGill-NLP
5,530
49
Gte Qwen1.5 7B Instruct
Apache-2.0
Qwen1.5アーキテクチャに基づく7Bパラメータ規模の文埋め込みモデルで、文の類似度計算とマルチタスク評価に特化
テキスト埋め込み
Transformers

G
Alibaba-NLP
253
103
Snowflake Arctic Embed Xs
Snowflake Arctic Embed XS は軽量な文埋め込みモデルで、文の類似度と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers

S
Snowflake
125.31k
35
Snowflake Arctic Embed M Long
Apache-2.0
Snowflake Arctic M Long は sentence-transformers ベースの文埋め込みモデルで、文の類似度と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers

S
Snowflake
23.79k
38
Llm2vec Sheared LLaMA Mntp Supervised
MIT
LLM2Vec-Sheared-LLaMA-supervisedは、Sheared-LLaMAアーキテクチャに基づく教師あり学習モデルで、文の類似度タスクに特化しており、テキスト埋め込み、情報検索、テキスト分類などの機能を提供します。
テキスト埋め込み 英語
L
McGill-NLP
648
5
Acge Text Embedding
ACGE テキスト埋め込みモデルは、テキスト埋め込みベクトルを生成するためのモデルで、さまざまな自然言語処理タスクをサポートします。
テキスト埋め込み
A
aspire
27.12k
146
Xiaobu Embedding
xiaobu-embeddingはマルチタスク埋め込みモデルで、テキスト類似度計算、分類、クラスタリング、検索など、さまざまな中国語自然言語処理タスクをサポートします。
テキスト埋め込み
Transformers

X
lier007
147
19
Instructor Xl
Apache-2.0
T5アーキテクチャに基づくセンテンス埋め込みモデルで、英語テキストのセマンティック類似性と情報検索タスクに特化しています。
テキスト埋め込み
Transformers 英語

I
retrainai
22
0
Gte Small Zh
MIT
GTE Small 中国語モデルは中国語テキスト処理に特化した文変換モデルで、様々な自然言語処理タスクに適用可能です。
テキスト埋め込み 英語
G
thenlper
2,789
18
Gte Base Zh
MIT
gte-base-zhは中国語に最適化された汎用テキスト埋め込みモデルで、意味類似度計算、テキスト分類、情報検索など様々な自然言語処理タスクをサポートします。
テキスト埋め込み 英語
G
thenlper
22.03k
36
Gte Large Zh
MIT
GTE Large 中国語モデルは多言語テキスト埋め込みモデルで、中国語テキストの意味表現と類似度計算に特化しています。
テキスト埋め込み 英語
G
thenlper
4,896
110
Stella Base En V2
MIT
stella-base-en-v2はsentence-transformersベースの英語テキスト埋め込みモデルで、文の類似性と特徴抽出タスクに特化しています。
テキスト埋め込み 英語
S
infgrad
16.89k
15
Ember V1
MIT
Ember v1 は sentence-transformers に基づく埋め込みモデルで、主に特徴抽出と文の類似度計算に使用されます。
テキスト埋め込み
Transformers 英語

E
llmrails
51.52k
62
Gte Small
MIT
GTE-smallは、文の類似度計算、テキスト分類、検索など、さまざまな自然言語処理タスクに適した小型の汎用テキスト埋め込みモデルです。
テキスト埋め込み 英語
G
thenlper
450.86k
158
Gte Large
MIT
GTE-Largeは強力なセンテンストランスフォーマーモデルで、文の類似度とテキスト埋め込みタスクに特化しており、複数のベンチマークテストで優れた性能を発揮します。
テキスト埋め込み 英語
G
thenlper
1.5M
278
Gte Base
MIT
GTE-Baseは汎用的なテキスト埋め込みモデルで、文の類似度とテキスト検索タスクに特化しており、複数のベンチマークテストで良好なパフォーマンスを示しています。
テキスト埋め込み 英語
G
thenlper
317.05k
117
Instructor Large Safetensors
Apache-2.0
INSTRUCTOR は T5 アーキテクチャに基づくテキスト埋め込みモデルで、文の類似度計算や情報検索タスクに特化しています。テキスト分類、クラスタリング、意味類似度評価など、さまざまな NLP タスクで優れた性能を発揮します。
テキスト埋め込み
Transformers 英語

I
gentlebowl
16
0
E5 Base
MIT
E5-baseは、分類、検索、クラスタリング、意味的類似度計算など、さまざまな自然言語処理タスクに適した汎用テキスト埋め込みモデルです。
テキスト埋め込み 英語
E
intfloat
30.85k
20
Instructor Base
Apache-2.0
T5アーキテクチャに基づくテキスト埋め込みモデルで、文の類似性計算とテキスト検索タスクに特化しており、複数のベンチマークテストで優れた性能を発揮します。
テキスト埋め込み
Transformers 英語

I
hkunlp
13.22k
116
Instructor Large
Apache-2.0
INSTRUCTOR はT5アーキテクチャに基づくテキスト埋め込みモデルで、文の類似度計算とテキスト分類タスクに特化しており、英語の自然言語処理をサポートしています。
テキスト埋め込み
Transformers 英語

I
hkunlp
186.12k
508
E5 Small
MIT
E5-smallは小型のセンテンストランスフォーマーモデルで、文類似度とテキスト埋め込みタスクに特化しており、複数の分類・検索タスクで良好な性能を発揮します。
テキスト埋め込み 英語
E
intfloat
16.96k
41
SGPT 1.3B Weightedmean Msmarco Specb Bitfit
SGPT-1.3Bは加重平均とbitfit技術に基づいて最適化された文変換器モデルで、主に文の類似度と特徴抽出タスクに使用されます。
テキスト埋め込み
S
Muennighoff
87
5
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98