Namaa ARA Reranker V1
Apache-2.0
アラビア語のリランキングタスク専用に設計されたモデルで、クエリと段落の関連性評価を正確に処理できます。
テキスト埋め込み
Transformers アラビア語

N
NAMAA-Space
56
4
Ruri Reranker Stage1 Large
Apache-2.0
Ruri-Rerankerはsentence-transformersベースの日本語テキスト再ランキングモデルで、クエリとドキュメントの関連性順位付けを最適化するために設計されています。
テキスト埋め込み 日本語
R
cl-nagoya
23
1
Ruri Reranker Stage1 Base
Apache-2.0
瑠璃リランカーはTransformerアーキテクチャに基づく日本語テキストリランキングモデルで、検索結果の並び替え品質を最適化するために設計されています。
テキスト埋め込み 日本語
R
cl-nagoya
26
0
Ruri Reranker Small
Apache-2.0
Ruri-Rerankerは日本語テキストに特化して最適化されたリランキングモデルで、sentence-transformersアーキテクチャに基づき、検索結果の関連性ソートを効果的に向上させます。
テキスト埋め込み 日本語
R
cl-nagoya
116
2
Ruri Reranker Stage1 Small
Apache-2.0
瑠璃リランカーは日本語汎用リランキングモデルで、日本語テキスト検索結果の関連性順位付けを向上させるために特別に設計されています。小型バージョンは高性能を維持しながら、より少ないパラメータ数を持ちます。
テキスト埋め込み 日本語
R
cl-nagoya
25
0
Monobert Legal French
MIT
CamemBERTアーキテクチャに基づくフランス語テキスト分類モデル、法律分野の段落再順序付けタスク専用に設計
テキスト分類 フランス語
M
maastrichtlawtech
802
1
Crossencoder Xlm Roberta Base Mmarcofr
MIT
これはXLM-RoBERTaをベースとしたフランス語クロスエンコーダーモデルで、意味的検索におけるパラグラフ再ランキングタスク専用です。
テキスト埋め込み フランス語
C
antoinelouis
51
0
Japanese Reranker Cross Encoder Large V1
MIT
日本語テキストソートタスクに最適化されたクロスエンコーダーモデルで、24層と1024隠れ層サイズの高性能アーキテクチャを備えています
テキスト埋め込み 日本語
J
hotchpotch
2,959
15
Polish Cross Encoder
これはポーランド語ベースのクロスエンコーダーモデルで、テキストソートと文類似度計算に使用されます。
テキスト埋め込み
Transformers その他

P
radlab
4,106
4
Ag Nli DeTS Sentence Similarity V2
Apache-2.0
これはSentenceTransformersベースのCross-Encoderモデルで、文のペアの意味的類似度スコアを計算します。
テキスト埋め込み
Transformers 複数言語対応

A
abbasgolestani
4,225
4
Medcpt Cross Encoder
その他
MedCPT-Cross-Encoderはバイオメディカル情報検索のためのシーケンス分類モデルで、医学関連記事の関連性ランキングに特に適しています。
テキスト埋め込み
Transformers

M
ncbi
61.12k
18
Ag Nli DeTS Sentence Similarity V1
Apache-2.0
このモデルはSentenceTransformersのCross-Encoderクラスを使用してトレーニングされ、2つの文の意味的類似度のスコアを予測するために使用されます。
テキスト埋め込み
Transformers 複数言語対応

A
abbasgolestani
982
0
Cross Encoder Italian Bert Stsb
MIT
このモデルはイタリア語でトレーニングされたクロスエンコーダーで、2つの文間の意味的類似度スコアを予測します。
テキスト埋め込み その他
C
nickprock
312
0
Bertin Roberta Base Zeroshot Esnli
このモデルはbertin-roberta-base-spanishでトレーニングされたゼロショット分類器で、スペイン語テキスト分類タスクに適しています。
テキスト分類
Transformers 複数言語対応

B
somosnlp-hackathon-2022
54
3
Crossencoder Camembert Large
Apache-2.0
これはCamemBERTベースのフランス語文章類似度計算モデルで、2つの文章間の意味的類似度スコアを予測します。
テキスト埋め込み
Transformers フランス語

C
dangvantuan
167
16
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98