GTE ModernColBERT V1
Apache-2.0
PyLateはColBERTアーキテクチャに基づく文類似度モデルで、Alibaba-NLP/gte-modernbert-baseをベースモデルとして使用し、蒸留損失による訓練を経ており、情報検索タスクに適しています。
テキスト埋め込み
G
lightonai
157.96k
98
Bge Large Zh V1.5 GGUF
MIT
BAAI/bge-large-zh-v1.5は中国語文変換モデルで、主に特徴抽出と文類似度計算に使用されます。
テキスト埋め込み 中国語
B
mradermacher
536
1
Gte Vi Base V1
MIT
これは阿里巴巴NLP/gte-multilingual-baseから微調整されたsentence-transformersモデルで、ベトナム語をサポートし、意味的テキスト類似度などのタスクに使用されます。
テキスト埋め込み その他
G
haiFrHust
272
1
Reranker ModernBERT Base Gooaq Bce
Apache-2.0
これはModernBERT-baseをファインチューニングしたクロスエンコーダーモデルで、テキストの再ランキングと意味検索タスクに使用されます。
テキスト埋め込み 英語
R
akr2002
16
1
Muffakir Embedding
エジプトの法律書籍と合成データで訓練されたアラビア語センテンストランスフォーマーで、意味的テキスト類似度と情報検索タスクに最適化されています。
テキスト埋め込み アラビア語
M
mohamed2811
332
1
Gte Qwen2 7B Instruct GGUF
Apache-2.0
アリババNLPチームが開発した7Bパラメータ規模の多言語テキスト埋め込みモデルで、文類似度タスクに特化し、複数の量子化バージョンを提供
大規模言語モデル 英語
G
mradermacher
510
2
Modernbert Base Gooaq
これはModernBERT-baseをベースにした文変換モデルで、文の類似度計算や情報検索タスクに特化しています。
テキスト埋め込み 英語
M
tomaarsen
3,092
15
Stella En 400M V5 FinanceRAG V2
stella_en_400M_v5アーキテクチャを基に金融分野向けに最適化した検索拡張生成モデルで、金融文書の意味検索と段落マッチングをサポート
大規模言語モデル その他
S
thomaskim1130
555
6
Ruri Reranker Stage1 Large
Apache-2.0
Ruri-Rerankerはsentence-transformersベースの日本語テキスト再ランキングモデルで、クエリとドキュメントの関連性順位付けを最適化するために設計されています。
テキスト埋め込み 日本語
R
cl-nagoya
23
1
Ru En RoSBERTa
MIT
RoBERTaアーキテクチャに基づくバイリンガル(ロシア語-英語)テキスト処理モデル、様々な分類と検索タスクに適応
テキスト埋め込み
Transformers 複数言語対応

R
ai-forever
15.95k
37
Askubuntu C 64 24 Gpt 4o 2024 05 131171
Apache-2.0
このモデルはjina-embeddings-v2-base-enを基にファインチューニングしたバージョンで、技術スタックドキュメント処理向けに設計されており、テキスト分類、感情分析、エンティティ認識などのタスクに適しています。
テキスト埋め込み 英語
A
fine-tuned
23
1
Dutch Legal C
Apache-2.0
jina-embeddings-v2-base-enをファインチューニングしたオランダ法律文書埋め込みモデル、法律文書検索タスクに最適化
テキスト埋め込み 英語
D
fine-tuned
39
2
Jina Embeddings V2 Base En 202457 Oc31 Webapp
Apache-2.0
jina-embeddings-v2-base-enを基に微調整したテキスト埋め込みモデルで、法律相談の検索エンジン最適化のために特別に設計され、中国語と英語の法律テキストの特徴抽出をサポートします。
テキスト埋め込み 中国語
J
fine-tuned
40
1
Snowflake Arctic Embed S
Apache-2.0
Snowflake Arctic Embed S は文の類似度タスクに特化した埋め込みモデルで、Snowflake社によって開発されました。分類、クラスタリング、検索など、さまざまなテキスト関連タスクで優れた性能を発揮します。
テキスト埋め込み
Transformers

S
Snowflake
32.13k
20
Snowflake Arctic Embed M
Apache-2.0
Snowflake Arctic Embed M は文類似度タスクに特化した文変換モデルで、効率的にテキスト特徴を抽出し文間の類似度を計算できます。
テキスト埋め込み
Transformers

S
Snowflake
722.08k
154
SFR Embedding Mistral
Salesforce Researchによって開発されたテキスト埋め込みモデルで、E5-mistral-7b-instructとMistral-7B-v0.1を基に訓練されており、主にテキスト検索タスクに使用されます。
テキスト埋め込み
Transformers 英語

S
Salesforce
34.75k
277
Mmlw Roberta Large
Apache-2.0
RoBERTaアーキテクチャに基づく大規模ポーランド語文章変換モデルで、文の類似度計算と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers その他

M
sdadas
5,007
13
Mmlw E5 Large
Apache-2.0
mmlw-e5-large は文変換器ベースの特徴抽出モデルで、文類似度タスクに特化しており、ポーランド語をサポートしています。
テキスト埋め込み
Transformers その他

M
sdadas
50
0
Vietnamese Bi Encoder
Apache-2.0
これはPhoBERT-base-v2ベースの文変換モデルで、ベトナム語テキストの意味的類似性タスク向けに設計されています。
テキスト埋め込み
Transformers その他

V
bkai-foundation-models
30.46k
63
Nli Deberta Base
DeBERTaアーキテクチャに基づく自然言語推論(NLI)モデルで、ゼロショット分類タスクに適しており、Transformers.js互換のONNX形式に変換済み
テキスト分類
Transformers

N
Xenova
30
0
Rankcse Listmle Bert Base Uncased
Apache-2.0
このデータセットはSimCSE(Simple Contrastive Learning of Sentence Embeddings)モデルのトレーニングと評価に使用され、文類似度タスクをサポートします。
テキスト埋め込み
Transformers 英語

R
perceptiveshawty
20
0
Cai Lunaris Text Embeddings
Apache-2.0
sentence-transformersベースのテキスト埋め込みモデルで、文の類似度計算と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers

C
consciousAI
59
4
St Greek Media Bert Base Uncased
これはギリシャメディアBERT(大文字小文字区別なし)モデルに基づくsentence-transformersモデルで、ギリシャ語の文や段落を768次元ベクトル空間にマッピングします。
テキスト埋め込み
Transformers その他

S
dimitriz
146
1
All Mpnet Base V2 Negation
Apache-2.0
これはMPNetアーキテクチャに基づく文埋め込みモデルで、否定文の処理能力を特に最適化しており、文の類似度計算タスクに適しています。
テキスト埋め込み 英語
A
dmlls
4,996
1
All Mpnet Base V2 Embedding All
Apache-2.0
sentence-transformers/all-mpnet-base-v2をベースに微調整された文章埋め込みモデルで、文章の類似度タスクに適しています。
テキスト埋め込み
Transformers 英語

A
LLukas22
45
4
Dragon Plus Query Encoder
DRAGON+ はBERTベースアーキテクチャの高密度検索モデルで、初期重みはRetroMAEに由来し、MS MARCOコーパスの拡張データでトレーニングされました。
テキスト埋め込み
Transformers

D
facebook
3,918
20
Sapbert Mnli Snli Scinli Scitail Mednli Stsb
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
pritamdeka
37
1
Kosimcse Bert Multitask
KoSimCSE-BERT-multitaskは高性能な韓国語文埋め込みモデルで、BERTアーキテクチャを基盤とし、マルチタスク学習戦略で最適化されています。高品質な韓国語文埋め込み表現を生成するために特別に設計されています。
テキスト埋め込み
Transformers 韓国語

K
BM-K
827
8
Sentence Camembert Base
Apache-2.0
Camembert-baseベースのフランス語文埋め込みモデル、文の類似度計算に使用
テキスト埋め込み フランス語
S
dangvantuan
45.91k
18
Quora Roberta Large
Apache-2.0
RoBERTa-largeベースのクロスエンコーダで、Quora上の重複質問を検出する
テキスト分類 英語
Q
cross-encoder
63.36k
4
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98