# 10億レベルの文ペア訓練

All Datasets V4 Mpnet Base
mpnet-baseに基づく文埋め込みモデルで、自己教師付き対比学習を通じて10億の文ペアデータセットで訓練され、高品質の文の意味ベクトル表現を生成できます。
テキスト埋め込み 英語
A
flax-sentence-embeddings
131
6
All Datasets V4 MiniLM L12
MiniLM-L12モデルをベースに、自己教師付き対比学習を通じて超10億の文ペアデータセットで微調整された文エンベディングモデルで、高品質の意味ベクトル表現を生成できます。
テキスト埋め込み 英語
A
flax-sentence-embeddings
2,084
2
All Datasets V3 Roberta Large
RoBERTa-largeに基づく文埋め込みモデルで、自己教師付き対比学習を通じて10億の文ペアデータセットで訓練され、意味が豊富な文ベクトル表現を生成するために使用されます。
テキスト埋め込み 英語
A
flax-sentence-embeddings
987
13
All Datasets V4 MiniLM L6
MiniLMアーキテクチャに基づく軽量級文埋め込みモデルで、対比学習を通じて10億の文ペアデータセットで微調整され、意味類似度計算と情報検索タスクに適しています。
テキスト埋め込み 英語
A
flax-sentence-embeddings
6,550
34
All Datasets V3 MiniLM L12
MiniLM-L12アーキテクチャに基づく文エンベディングモデルで、対比学習を通じて10億を超える文ペアのデータセットで訓練され、高品質の意味ベクトル表現を生成できます。
テキスト埋め込み 英語
A
flax-sentence-embeddings
887
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase