Chonky Modernbert Large 1
MIT
Chonkyはテキストを意味のあるセマンティックブロックにインテリジェントに分割できるTransformerモデルで、RAGシステムに適しています。
シーケンスラベリング
Transformers 英語

C
mirth
54
2
Set Encoder Novelty Base
Apache-2.0
Set-Encoderは、効率的で置換不変性を持つ段落の並べ替えに特化したクロスエンコーダーアーキテクチャで、特に新規性認識を考慮した並べ替えタスクに適しています。
テキスト埋め込み
S
webis
14
0
Lightblue Reranker 0.5 Bincont Filt Gguf
これはテキストランキングモデルで、テキストの関連性をランク付けするために使用されます。
テキスト埋め込み
L
RichardErkhov
2,054
0
Rank1 0.5b
MIT
rank1はQwen2.5-0.5Bをベースに訓練された情報検索の再順位付けモデルで、推論チェーンを生成することで関連性判断の精度を向上させます。
大規模言語モデル
Transformers 英語

R
jhu-clsp
21
0
Set Encoder Base
Apache-2.0
Set-Encoderは、効率的で置換不変性を持つ段落再編成のために特別に設計されたクロスエンコーダアーキテクチャです。
テキスト埋め込み
S
webis
295
1
Crossencoder Mdebertav3 Base Mmarcofr
MIT
これはmDeBERTa-v3-baseをベースにしたフランス語のクロスエンコーダーモデルで、段落の再ランキングタスクに特化しており、mMARCO-frデータセットで優れた性能を発揮します。
テキスト埋め込み フランス語
C
antoinelouis
111
1
Robbert 2023 Dutch Base Cross Encoder
Transformersライブラリに基づく文埋め込みモデルで、文のベクトル表現を生成し、テキストランキングタスクをサポートします。
テキスト埋め込み
Transformers

R
NetherlandsForensicInstitute
118
2
Splade V3 Doc
SPLADE-v3-DocはSPLADEモデルの文書バージョンで、文書側の推論に特化しており、情報検索などのシナリオに適しています。
テキスト埋め込み
Transformers 英語

S
naver
2,223
1
K Finance Sentence Transformer
これはsentence-transformersベースの文埋め込みモデルで、テキストを768次元のベクトル空間にマッピングし、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み
Transformers

K
ohsuz
160
1
Polish Reranker Base Ranknet
Apache-2.0
RankNet損失関数で訓練されたポーランド語テキストランキングモデル、情報検索タスクに適応
テキスト埋め込み
Transformers その他

P
sdadas
332
1
Gte Large Onnx
Apache-2.0
GTE-LargeはONNXに移植されたテキスト埋め込みモデルで、テキスト分類や類似性検索タスクに適しています。
テキスト埋め込み
Transformers

G
Qdrant
597
2
Mmlw Retrieval Roberta Base
Apache-2.0
MMLW(私はより良いニュースを得なければならない)はポーランド語のニューラルテキストエンコーダーで、情報検索タスクに最適化されており、クエリと段落を768次元ベクトルに変換できます。
テキスト埋め込み
Transformers その他

M
sdadas
408
1
Gte Tiny
GTE Tinyは、さまざまな自然言語処理タスクに適した小型の汎用テキスト埋め込みモデルです。
テキスト埋め込み
Transformers

G
TaylorAI
74.46k
138
Crossencoder Electra Base Mmarcofr
MIT
これはELECTRAアーキテクチャに基づくフランス語クロスエンコーダーモデルで、意味検索における段落再ランキングタスク専用に設計されています。
テキスト埋め込み フランス語
C
antoinelouis
18
0
Dragon Plus Context Encoder
DRAGON+ はBERTアーキテクチャに基づく高密度検索モデルで、非対称デュアルエンコーダーアーキテクチャを採用し、テキスト検索タスクに適しています。
テキスト埋め込み
Transformers

D
facebook
4,396
39
Raw 2 No 1 Test 2 New.model
これはsentence-transformersに基づくモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

R
Wheatley961
13
0
Bertje Visio Retriever
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

B
GeniusVoice
14
0
July25test
これはsentence-transformersに基づく文の埋め込みモデルで、テキストを768次元のベクトル表現に変換でき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

J
NimaBoscarino
36
0
Ukhushn
これはsentence - transformersに基づくモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

U
Ukhushn
35
0
Healthcare 27.03.2021 27.03.2022 Redditflow
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

H
NFflow
31
0
English Phrases Bible
Apache-2.0
DistilBert TAS - Bモデルに基づく文埋め込みモデルで、意味検索タスクに最適化されており、テキストを768次元のベクトル空間にマッピングできます。
テキスト埋め込み
Transformers

E
iamholmes
28
0
Nfcorpus Tsdae Msmarco Distilbert Gpl
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

N
GPL
31
0
Climate Fever Tsdae Msmarco Distilbert Gpl
これはsentence-transformersに基づく文埋め込みモデルで、テキストを768次元のベクトル空間にマッピングでき、意味的検索やテキスト類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers

C
GPL
31
0
Webis Touche2020 Distilbert Tas B Gpl Self Miner
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

W
GPL
31
0
Msmarco MiniLM L12 En De V1
Apache-2.0
MS Marcoの段落ランキングタスクを基に訓練された英独多言語クロスエンコーダモデルで、情報検索シーンの段落再ランキングに適しています。
テキスト埋め込み
Transformers 複数言語対応

M
cross-encoder
19.62k
5
Distilbert Base Mean Pooling
これはDistilBERTに基づく文の埋め込みモデルで、テキストを768次元のベクトル表現に変換でき、文の類似度計算や意味的検索タスクに適しています。
テキスト埋め込み
Transformers

D
jgammack
2,340
5
TILDE
TILDEはBERTアーキテクチャに基づくモデルで、主にテキスト検索と言語モデリングタスクに使用されます。
大規模言語モデル
Transformers

T
ielab
134
3
Dpr Question Encoder Bert Uncased L 2 H 128 A 2
Apache-2.0
BERTアーキテクチャに基づくDPR質問エンコーダーモデル、密集パッセージ検索タスク用
テキスト埋め込み
Transformers

D
nlpconnect
21
0
Contriever Msmarco
Contriever事前学習モデルのファインチューニング版で、高密度情報検索タスク向けに最適化され、対照学習手法で訓練されています
テキスト埋め込み
Transformers

C
facebook
24.08k
27
Msmarco MiniLM L6 En De V1
Apache-2.0
これは、英独語の段落再並べ替えタスクに適した言語間クロスエンコーダモデルで、MS Marcoの段落並べ替えタスクを基に訓練されています。
テキスト埋め込み
Transformers 複数言語対応

M
cross-encoder
2,784
12
Mt5 Base Finetuned Tydiqa Xqa
このモデルは、GoogleのmT5-baseをTyDi QAデータセットで微調整した多言語質問応答モデルで、101言語の質問応答タスクに対応しています。
質問応答システム
Transformers その他

M
Narrativa
368
6
Bioasq 1m Tsdae Msmarco Distilbert Gpl
これはsentence-transformersに基づく文埋め込みモデルで、テキストを768次元のベクトル表現に変換でき、意味的検索やテキスト類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers

B
GPL
31
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98