Bge Code V1
Apache-2.0
BGE-Code-v1はLLMベースのコード埋め込みモデルで、コード検索、テキスト検索、多言語検索をサポートし、コード検索とテキスト検索タスクで優れた性能を発揮します。
テキスト埋め込み
Transformers 複数言語対応

B
BAAI
103
11
SFR Embedding Code 2B R
Salesforce研究所が開発した汎用型埋め込みモデルで、多言語・多タスクのコードとテキスト検索に適しており、多くのコード検索タスクで優れた性能を発揮します。
テキスト埋め込み
Transformers その他

S
Salesforce
6,977
36
Minicpm Embedding
MiniCPM-Embedding は MiniCPM-2B-sft-bf16 ベースモデルを基に開発された埋め込みモデルで、検索タスクに特化し、中国語と英語の二言語をサポートします。
テキスト埋め込み
Transformers 複数言語対応

M
openbmb
315
245
Ko Reranker
MIT
ko-rerankerはBAAI/bge-reranker-largeモデルを基に、韓国語データでファインチューニングしたテキストランキングモデルです。
テキスト埋め込み
Transformers 複数言語対応

K
upskyy
81
4
Sentence Camembert Base
Apache-2.0
CamemBERTベースのフランス語文埋め込みモデル。強化SBERT手法でstsbデータセットにファインチューニングされ、最先端のフランス語文類似度計算を実現
テキスト埋め込み フランス語
S
Lajavaness
1,041
5
Sentence Flaubert Base
Apache-2.0
FlauBERTベースのフランス語文埋め込みモデル、文の類似度計算に使用
テキスト埋め込み フランス語
S
Lajavaness
1,846
3
Llm Embedder Math
数学データセットで微調整されたLLM-Embedderモデルで、文の類似度タスクに特化しています。
テキスト埋め込み
Transformers

L
horychtom
19
0
Kosimcse Bert
韓国語文埋め込みモデル、BERTアーキテクチャを基に最適化され、文の意味的類似度計算に使用
テキスト埋め込み
Transformers 韓国語

K
BM-K
444
5
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98