Drama Large
DRAMA-large (0.3B) は、プルーニングされた大規模言語モデルアーキテクチャに基づいて構築された密検索モデルで、効率的かつ汎用的な多言語テキスト検索タスクに最適化されています。
テキスト埋め込み
Transformers 複数言語対応

D
facebook
55
7
Drama Base
DRAMA-baseは、枝刈りされた大規模言語モデルアーキテクチャに基づく密な検索モデルで、多言語テキスト検索タスクをサポートします。
テキスト埋め込み
Transformers 複数言語対応

D
facebook
716
15
Nomic Embed Text V2 Moe
Apache-2.0
Nomic Embed v2は高性能な多言語エキスパート混合(MoE)テキスト埋め込みモデルで、約100言語をサポートし、多言語検索タスクで優れた性能を発揮します。
テキスト埋め込み 複数言語対応
N
nomic-ai
242.32k
357
Snowflake Arctic Embed L V2.0 Gguf
Snowflake Arctic-embed-l-v2.0はSnowflakeがリリースした最新の埋め込みモデルで、多言語ワークロード向けに設計され、検索性能と推論効率が最適化されています。
テキスト埋め込み 複数言語対応
S
Casual-Autopsy
4,066
8
Finance Embedding 8k
MIT
BGE-M3は多機能、多言語、マルチグレインの埋め込みモデルで、密な検索、マルチベクトル検索、スパース検索という3つの一般的な検索機能をサポートしています。
テキスト埋め込み
F
ng3owb
19
2
Minicpm Embedding
MiniCPM-Embedding は MiniCPM-2B-sft-bf16 ベースモデルを基に開発された埋め込みモデルで、検索タスクに特化し、中国語と英語の二言語をサポートします。
テキスト埋め込み
Transformers 複数言語対応

M
openbmb
315
245
Bloomz 560m Retriever V2
Openrail
Bloomz-560m-dpo-chatモデルを基にしたデュアルエンコーダで、記事とクエリを同一のベクトル空間にマッピングし、フランス語と英語の多言語検索をサポートします。
テキスト埋め込み
Transformers 複数言語対応

B
cmarkea
17
2
Bge M3 Onnx O4
MIT
これはBAAI/bge-m3モデルのONNX量子化バージョンで、密検索、多ベクトル検索、疎検索の3機能をサポートし、100以上の言語に対応しています。
テキスト埋め込み
Transformers

B
hooman650
285.96k
10
Mmarco Mminilmv2 L12 H384 V1
Apache-2.0
MMARCOデータセットで訓練された多言語テキストランキングモデル、14言語の情報検索タスクをサポート
テキスト埋め込み
Transformers 複数言語対応

M
cross-encoder
42.56k
52
Mdpr Tied Pft Msmarco Ft All
このモデルはcastorini/mdpr-tied-pft-msmarcoチェックポイントを基に、全てのMr. TyDiトレーニングデータでさらにファインチューニングした密な検索モデルです。
大規模言語モデル
Transformers

M
castorini
386
0
Msmarco MiniLM L12 En De V1
Apache-2.0
MS Marcoの段落ランキングタスクを基に訓練された英独多言語クロスエンコーダモデルで、情報検索シーンの段落再ランキングに適しています。
テキスト埋め込み
Transformers 複数言語対応

M
cross-encoder
19.62k
5
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98