Langcache Embed V2
Redis Langcache Embed v1をベースに微調整された文変換器モデルで、768次元の文埋め込みベクトルを生成するために使用されます。
テキスト埋め込み
L
redis
126
1
Langcache Embed V1
これは阿里巴巴NLP/gte-modernbert-baseをファインチューニングしたsentence-transformersモデルで、セマンティックテキスト類似度計算に使用され、セマンティックキャッシュ機能を実現します。
テキスト埋め込み
L
redis
2,138
1
Langcache Embed Medical V1
これはアリババNLP/gte-modernbert-baseをファインチューニングした文変換モデルで、医療分野のセマンティックテキスト類似度計算に特化しており、セマンティックキャッシュ機能をサポートしています。
テキスト埋め込み
L
redis
103
1
Vietnamese Embedding
BGE-M3をファインチューニングしたベトナム語埋め込みモデル、ベトナム語検索能力を強化
テキスト埋め込み その他
V
AITeamVN
14.26k
26
Scitopicnomicembed
Apache-2.0
nomic-ai/nomic-embed-text-v1.5をファインチューニングした文変換モデルで、科学文献の主題類似性タスクに最適化
テキスト埋め込み 英語
S
Corran
114
1
Gte Modernbert Base
Apache-2.0
ModernBERT事前学習エンコーダーに基づくテキスト埋め込みモデルで、8192トークンの長文処理をサポートし、MTEB、LoCO、COIRなどの評価タスクで優れた性能を発揮します。
テキスト埋め込み
Transformers 英語

G
Alibaba-NLP
74.52k
138
Rosetta Base Ja
Apache-2.0
RoSEttaは汎用日本語テキスト埋め込みモデルで、検索タスクに優れ、1024トークンのシーケンス長をサポートし、文類似度計算や段落検索に適しています。
テキスト埋め込み 日本語
R
pkshatech
1,760
7
Fingumv3
これはdunzhang/stella_en_1.5B_v5をファインチューニングしたsentence-transformersモデルで、文や段落の1024次元の密なベクトル表現を生成し、意味的テキスト類似性や意味的検索などのタスクに適しています。
テキスト埋め込み
F
FINGU-AI
26
1
Gte Qwen2 1.5B Instruct
Apache-2.0
Qwen2-1.5Bを基に構築された汎用テキスト埋め込みモデルで、多言語と長文処理をサポート
テキスト埋め込み
Transformers

G
Alibaba-NLP
242.12k
207
SFR Embedding Mistral
Salesforce Researchによって開発されたテキスト埋め込みモデルで、E5-mistral-7b-instructとMistral-7B-v0.1を基に訓練されており、主にテキスト検索タスクに使用されます。
テキスト埋め込み
Transformers 英語

S
Salesforce
34.75k
277
Lodestone Base 4096 V1
Apache-2.0
Humによって開発されたsentence-transformersモデルで、4096トークンの長文埋め込みをサポートし、意味検索とクラスタリングタスクに適しています。
テキスト埋め込み 英語
L
Hum-Works
132
11
Slovakbert Skquad Mnlr
これはスロバキア語BERTをベースにした文変換モデルで、文の類似度計算や特徴抽出タスクに特化しています。
テキスト埋め込み
S
TUKE-DeutscheTelekom
35
4
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98