# 対照学習

Bloomz 560m Retriever V2
Openrail
Bloomz-560m-dpo-chatモデルを基にしたデュアルエンコーダで、記事とクエリを同一のベクトル空間にマッピングし、フランス語と英語の多言語検索をサポートします。
テキスト埋め込み Transformers 複数言語対応
B
cmarkea
17
2
Setfit All MiniLM L6 V2 Sst2 32 Shot
Apache-2.0
これはsst2データセットで訓練されたSetFitモデルで、英文テキスト分類タスクに使用され、効率的な少数ショット学習技術で訓練されています。
テキスト分類 英語
S
tomaarsen
23
7
Mmlw Retrieval Roberta Base
Apache-2.0
MMLW(私はより良いニュースを得なければならない)はポーランド語のニューラルテキストエンコーダーで、情報検索タスクに最適化されており、クエリと段落を768次元ベクトルに変換できます。
テキスト埋め込み Transformers その他
M
sdadas
408
1
Vit SO400M 14 SigLIP
Apache-2.0
WebLIデータセットで訓練されたSigLIP(言語-画像事前学習用Sigmoid損失)モデルで、ゼロショット画像分類タスクに適しています。
テキスト生成画像
V
timm
79.55k
17
Wrapresentations
WRAPresentationsはツイート論点マイニング専用に設計された先進的な文変換モデルで、ツイートを「理由」「主張」「通知」「無意味」の4種類に分類可能です。
テキスト埋め込み Transformers 英語
W
TomatenMarc
268
2
All Mpnet Base V2
Apache-2.0
MPNetアーキテクチャに基づく文埋め込みモデルで、テキストを384次元のベクトル空間にマッピングし、意味検索や文類似度タスクに適しています
テキスト埋め込み 英語
A
3gg
15
0
All Mpnet Base V2
Apache-2.0
MPNetアーキテクチャに基づく文埋め込みモデルで、テキストを768次元のベクトル空間にマッピングし、意味検索やテキスト類似度タスクに適しています
テキスト埋め込み 英語
A
diptanuc
138
1
Micse
Apache-2.0
miCSEは文類似度計算のために特別に設計された少数サンプル文埋め込みモデルで、注意パターンアライメントと正規化された自己注意分布を通じて効率的なサンプル学習を実現します。
テキスト埋め込み Transformers 英語
M
sap-ai-research
30
8
All Mpnet Base V2 Feature Extraction
Apache-2.0
MPNetアーキテクチャに基づく文埋め込みモデルで、テキストを768次元ベクトル空間にマッピングでき、意味検索やテキスト類似性タスクに適しています
テキスト埋め込み 英語
A
guidecare
4,539
0
Minilm L6 Keyword Extraction
その他
これはMiniLMアーキテクチャに基づく文埋め込みモデルで、テキストを384次元のベクトル空間にマッピングし、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み 英語
M
valurank
13.19k
13
All MiniLM L6 V2
Apache-2.0
これはsentence-transformersベースの文埋め込みモデルで、テキストを384次元のベクトル空間にマッピングでき、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み 英語
A
obrizum
1,647
5
All Mpnet Base V2
Apache-2.0
これはMPNetアーキテクチャに基づく文埋め込みモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、意味検索やクラスタリングなどのタスクに適しています。
テキスト埋め込み 英語
A
obrizum
34
1
All MiniLM L6 V2
Apache-2.0
MiniLMアーキテクチャに基づく軽量な文埋め込みモデルで、テキストを384次元ベクトル空間にマッピングでき、意味検索やクラスタリングタスクに適しています
テキスト埋め込み 英語
A
optimum
171.02k
18
All Mpnet Base V2
MIT
これはMPNetアーキテクチャに基づく文埋め込みモデルで、テキストを768次元ベクトル空間にマッピングでき、意味検索や文類似度タスクに適しています。
テキスト埋め込み 英語
A
navteca
14
1
Multilingual SimCSE
平行言語ペアで訓練された対照学習モデルで、異なる言語の平行文ペアを通じてテキストを同じベクトル空間にマッピング
テキスト埋め込み Transformers
M
WENGSYX
84
5
Sup Simcse Roberta Large
RoBERTa-largeベースの教師ありSimCSEモデルで、文埋め込みと特徴抽出タスクに使用されます。
テキスト埋め込み
S
princeton-nlp
276.47k
25
Simcse Chinese Roberta Wwm Ext
シンプルな対照学習に基づく簡体字中国語文埋め込みエンコーディングモデルで、中国語RoBERTa WWM拡張版を事前学習モデルとして使用しています。
テキスト埋め込み Transformers
S
cyclone
188
32
Declutr Base
Apache-2.0
DeCLUTR-baseは、深層対照学習による教師なし訓練で高品質なテキスト表現を生成する汎用文エンコーダーモデルです。
テキスト埋め込み 英語
D
johngiorgi
99
7
Contriever Msmarco
Contriever事前学習モデルのファインチューニング版で、高密度情報検索タスク向けに最適化され、対照学習手法で訓練されています
テキスト埋め込み Transformers
C
facebook
24.08k
27
Wav2vec Osr
Apache-2.0
The Sound Of AIオープンソース研究グループの音声からテキストへのモジュール用にファインチューニングされたFacebookのwav2vec2モデル
音声認識 Transformers 英語
W
iamtarun
22
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase