Amber Large
Apache-2.0
modernbert-ja-310m をベースとした日英双语句子特徴抽出モデルで、文の類似度計算とテキスト分類タスクをサポート
テキスト埋め込み 複数言語対応
A
retrieva-jp
239.28k
7
Amber Base
Apache-2.0
Amber Base は modernbert-ja-130m を基にした日本語-英語文変換モデルで、文類似度計算と特徴抽出タスクに特化しています。
テキスト埋め込み 複数言語対応
A
retrieva-jp
213
3
Gte Qwen2 1.5B Instruct GGUF
Apache-2.0
Qwen2アーキテクチャに基づく7Bパラメータ規模の文埋め込みモデルで、文類似度タスクに特化しており、MTEBベンチマークテストで優れた性能を発揮します。
大規模言語モデル
G
mav23
169
2
Gte Qwen2 7B Instruct GGUF
Apache-2.0
Qwen2アーキテクチャに基づく7Bパラメータ規模の命令微調整モデルで、文の類似性計算とテキスト埋め込みタスクに特化
大規模言語モデル
G
mav23
118
1
NV Embed V2
NV-Embed-v2 は sentence-transformers ベースの埋め込みモデルで、複数の MTEB ベンチマークテストで優れたパフォーマンスを発揮し、様々な自然言語処理タスクに適しています。
テキスト埋め込み
Transformers 英語

N
nvidia
35.55k
420
SFR Embedding 2 R
Salesforceが開発した汎用テキスト埋め込みモデルで、様々なNLPタスクで優れた性能を発揮
テキスト埋め込み
Transformers 英語

S
Salesforce
26.90k
86
Llm2vec Meta Llama 3 8B Instruct Mntp Supervised
MIT
LLM2VecはMeta-Llama-3に基づく教師あり学習モデルで、文の類似度などの自然言語処理タスクに特化しており、テキスト埋め込み、情報検索、テキスト分類などの様々なアプリケーションシーンをサポートします。
大規模言語モデル 英語
L
McGill-NLP
5,530
49
Snowflake Arctic Embed Xs
Snowflake Arctic Embed XS は軽量な文埋め込みモデルで、文の類似度と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers

S
Snowflake
125.31k
35
E5 Base 4k
MIT
e5-base-4kは、複数の自然言語処理タスクで優れた性能を発揮するモデルであり、特にテキスト分類、検索、クラスタリング、意味的テキスト類似度などのタスクで顕著な効果があります。
テキスト埋め込み
Transformers 英語

E
dwzhu
3,029
11
Stella Base En V2
MIT
stella-base-en-v2はsentence-transformersベースの英語テキスト埋め込みモデルで、文の類似性と特徴抽出タスクに特化しています。
テキスト埋め込み 英語
S
infgrad
16.89k
15
Gte Base
MIT
GTE-Baseは汎用的なテキスト埋め込みモデルで、文の類似度とテキスト検索タスクに特化しており、複数のベンチマークテストで良好なパフォーマンスを示しています。
テキスト埋め込み 英語
G
thenlper
317.05k
117
E5 Base
MIT
E5-baseは、分類、検索、クラスタリング、意味的類似度計算など、さまざまな自然言語処理タスクに適した汎用テキスト埋め込みモデルです。
テキスト埋め込み 英語
E
intfloat
30.85k
20
Sgpt Bloom 7b1 Msmarco
SGPT-Bloom-7b1-msmarco はBLOOMアーキテクチャに基づく文変換モデルで、主に文類似度計算と特徴抽出タスクに使用されます。
大規模言語モデル
S
bigscience
31
43
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98