Ruri V3 Reranker 310m Preview
Apache-2.0
これは日本語汎用再ランキングモデルのプレビュー版で、cl-nagoya/ruri-v3-pt-310mベースモデルを基に訓練され、日本語テキスト関連性ランキングタスクに特化しています。
テキスト埋め込み 日本語
R
cl-nagoya
79
0
Reranker Msmarco MiniLM L12 H384 Uncased Lambdaloss
Apache-2.0
これはMiniLM-L12-H384-uncasedをファインチューニングしたクロスエンコーダモデルで、テキスト再ランキングと意味検索タスクに使用されます。
テキスト埋め込み 英語
R
tomaarsen
1,019
3
Modernbert Large Msmarco Bpr
これはModernBERT-largeからファインチューニングされたsentence-transformersモデルで、文章や段落を1024次元の密なベクトル空間にマッピングし、意味的テキスト類似性や意味検索などのタスクをサポートします。
テキスト埋め込み
M
BlackBeenie
21
2
Mxbai Rerank Base V1
Apache-2.0
これはTransformersアーキテクチャに基づく再ランキング(Reranker)モデルで、主に情報検索と検索結果最適化タスクに使用されます。

M
khoj-ai
81
1
Bge Reranker Large Q4 K M GGUF
MIT
このモデルはBAAI/bge-reranker-largeから変換されたGGUF形式モデルで、リランキングタスクに使用され、中国語と英語をサポートします。
テキスト埋め込み 複数言語対応
B
DrRos
164
1
Cross Encoder Binary Topic Classification
これはTransformerアーキテクチャに基づくクロスエンコーダーモデルで、主にテキストランキングタスクに使用されます。
テキスト埋め込み
Transformers

C
enochlev
28
0
Polish Reranker Roberta V2
sdadas/polish-roberta-large-v2を改良したポーランド語再ランキングモデル、RankNet損失関数で訓練、Flash Attention 2高速化対応
テキスト埋め込み
Transformers その他

P
sdadas
961
2
Splade V3
SPLADE-v3は最新世代のSPLADEモデルシリーズで、SPLADE++SelfDistilをベースに開発され、KLダイバージェンスとMarginMSEの混合トレーニング方式を採用し、情報検索タスクに使用されます。
テキスト埋め込み
Transformers 英語

S
naver
84.86k
40
Crossencoder Mminilmv2 L12 Mmarcofr
MIT
これはフランス語のクロスエンコーダーモデルで、質問と段落のペアの関連性スコアリングに使用され、意味検索の再ランキング段階に適しています。
テキスト埋め込み フランス語
C
antoinelouis
155
0
Sentece Embeddings BETO
sentence-transformersベースのスペイン語BERTモデルで、文や段落の768次元ベクトル表現を生成
テキスト埋め込み
Transformers

S
espejelomar
75
1
Msmarco Distilbert Base V4 Feature Extraction Pipeline
Apache-2.0
これはDistilBERTベースのセンテンストランスフォーマーモデルで、特徴抽出と文の類似度計算に特化しています。
テキスト埋め込み
Transformers

M
questgen
36
0
Splade Cocondenser Ensembledistil
段落検索用SPLADEモデル、知識蒸留によりスパースニューラル情報検索効果を向上
テキスト埋め込み
Transformers 英語

S
naver
606.73k
42
Splade Cocondenser Selfdistil
パッセージ検索のためのSPLADEモデル、スパース潜在文書拡張と知識蒸留技術により検索効果を向上
テキスト埋め込み
Transformers 英語

S
naver
16.11k
10
Dense Encoder Msmarco Distilbert Word2vec256k MLM 445k Emb Updated
MS MARCOデータセットで訓練された文埋め込みモデル、word2vecで初期化された256k語彙とDistilBERTアーキテクチャを使用、意味検索や文類似度タスクに適しています
テキスト埋め込み
Transformers

D
vocab-transformers
29
0
Monot5 Large Msmarco
このモデルはT5-largeアーキテクチャに基づく再ランキングモデルで、MS MARCO段落データセットで10万ステップ(10エポック)のファインチューニングが行われており、主にドキュメントや段落の再ランキングタスクに使用されます。
大規模言語モデル
M
castorini
254
3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98