# 高リコール率
Marqo Fashionsiglip ST
Apache-2.0
Marqo-FashionSigLIPはファッション製品検索に最適化された多モーダル埋め込みモデルで、FashionCLIPと比較してMRRとリコール率で57%向上しています。
画像生成テキスト
Transformers English

M
pySilver
3,586
0
Marqo Fashionsiglip
Apache-2.0
Marqo-FashionSigLIPはファッション製品検索に最適化された多モーダル埋め込みモデルで、FashionCLIPと比較してMRRとリコール率で57%向上しました。
テキスト生成画像
Transformers English

M
Marqo
493.25k
44
Monobert Legal French
MIT
CamemBERTアーキテクチャに基づくフランス語テキスト分類モデル、法律分野の段落再順序付けタスク専用に設計
テキスト分類 French
M
maastrichtlawtech
802
1
Crossencoder Mdebertav3 Base Mmarcofr
MIT
これはmDeBERTa-v3-baseをベースにしたフランス語のクロスエンコーダーモデルで、段落の再ランキングタスクに特化しており、mMARCO-frデータセットで優れた性能を発揮します。
テキスト埋め込み French
C
antoinelouis
111
1
Crossencoder Xlm Roberta Base Mmarcofr
MIT
これはXLM-RoBERTaをベースとしたフランス語クロスエンコーダーモデルで、意味的検索におけるパラグラフ再ランキングタスク専用です。
テキスト埋め込み French
C
antoinelouis
51
0
Crossencoder Me5 Base Mmarcofr
MIT
これはmultilingual-e5-baseをベースにしたフランス語クロスエンコーダーモデルで、段落再ランキングタスク専用です。
テキスト埋め込み French
C
antoinelouis
49
1
Crossencoder Camembert Large Mmarcofr
MIT
これはフランス語のクロスエンコーダーモデルで、意味検索における段落再ランキングタスク専用です。
テキスト埋め込み French
C
antoinelouis
108
1
Dragon Multiturn Query Encoder
Other
Dragon-multiturnは、会話型質問応答シナリオ向けに設計された検索器で、会話履歴と現在のクエリを組み合わせた対話型クエリを処理できます。
質問応答システム
Transformers English

D
nvidia
710
59
Colbert Xm
MIT
ColBERT-XMは、ColBERTアーキテクチャに基づく多言語パラグラフ検索モデルで、複数言語の文類似度計算とパラグラフ検索タスクをサポートします。
テキスト埋め込み
Safetensors Supports Multiple Languages
C
antoinelouis
29.07k
61
Solon Embeddings Base 0.1
MIT
Solon埋め込みモデル基本版0.1は現在最先端のオープンソースフランス語埋め込みモデルで、フランス語と英語をサポートし、文の類似性と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers Supports Multiple Languages

S
OrdalieTech
2,250
14
Crossencoder Electra Base Mmarcofr
MIT
これはELECTRAアーキテクチャに基づくフランス語クロスエンコーダーモデルで、意味検索における段落再ランキングタスク専用に設計されています。
テキスト埋め込み French
C
antoinelouis
18
0
Crossencoder Camembert Base Mmarcofr
MIT
これはCamemBERTベースのフランス語クロスエンコーダーモデルで、段落再ランキングタスクに特化しており、mMARCO-frデータセットで優れた性能を発揮します。
テキスト埋め込み French
C
antoinelouis
622
5
Crossencoder Mminilmv2 L12 Mmarcofr
MIT
これはフランス語のクロスエンコーダーモデルで、質問と段落のペアの関連性スコアリングに使用され、意味検索の再ランキング段階に適しています。
テキスト埋め込み French
C
antoinelouis
155
0
Biencoder Mminilmv2 L12 Mmarcofr
MIT
これはフランス語のための密な単一ベクトルデュアルエンコーダーモデルで、意味検索に使用できます。このモデルはクエリとパッセージを384次元の密なベクトルにマッピングし、コサイン類似度で関連性を計算します。
テキスト埋め込み French
B
antoinelouis
346
2
Biencoder Electra Base Mmarcofr
MIT
これはフランス語のための密な単一ベクトルデュアルエンコーダーモデルで、意味検索に使用できます。このモデルはクエリとパッセージを768次元の密なベクトルにマッピングし、コサイン類似度で関連性を計算します。
テキスト埋め込み French
B
antoinelouis
31
2
Biencoder Distilcamembert Mmarcofr
MIT
これはフランス語のための密な単一ベクトルデュアルエンコーダーモデルで、意味検索に使用できます。このモデルはクエリとパッセージを768次元の密なベクトルにマッピングし、コサイン類似度で関連性を計算します。
テキスト埋め込み French
B
antoinelouis
160
2
Biencoder Camembert Base Mmarcofr
MIT
これはフランス語のための密な単一ベクトルデュアルエンコーダーモデルで、意味検索タスクに使用できます。
テキスト埋め込み French
B
antoinelouis
984
9
Cotmae Base Msmarco Reranker
CoT-MAEアーキテクチャに基づいて訓練されたMS-Marcoパッセージ再ランキングモデルで、高密度パッセージ検索性能を向上させるために使用されます
テキスト埋め込み
Transformers

C
caskcsg
16
1
Twitter Roberta Base Dec2021 Tweetner7 Random
このモデルはTwitterデータで事前学習されたRoBERTaモデルで、tner/tweetner7データセットでファインチューニングされ、ツイート内の固有表現認識に使用されます。
シーケンスラベリング
Transformers

T
tner
43
2
Twitter Roberta Base Dec2021 Tweetner7 All
TweetNER7データセットでファインチューニングされたTwitter-RoBERTaモデルに基づく固有表現認識モデルで、ツイート内のエンティティ認識に特化しています。
シーケンスラベリング
Transformers

T
tner
6
0
Roberta Large Tweetner7 All
roberta-largeをtner/tweetner7データセットでファインチューニングした固有表現認識モデルで、ツイッターテキストの固有表現認識に特化
シーケンスラベリング
Transformers

R
tner
170.06k
1
Splade Cocondenser Selfdistil
パッセージ検索のためのSPLADEモデル、スパース潜在文書拡張と知識蒸留技術により検索効果を向上
テキスト埋め込み
Transformers English

S
naver
16.11k
10
Gpt2 Finetuned Comp2
MIT
GPT-2アーキテクチャに基づくファインチューニングモデルで、特定タスク向けに最適化されています
大規模言語モデル
Transformers

G
brad1141
75
0
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98