S

Sentence Transformers All Mini Lm L6 V2

danielparkによって開発
MiniLMアーキテクチャを最適化した軽量な文埋め込みモデルで、効率的な文の類似度計算のために設計されています
ダウンロード数 78
リリース時間 : 10/13/2023

モデル概要

このモデルは対照学習による微調整を行い、文を高次元ベクトル空間で表現し、文間の意味的類似度を計算できます。高い性能を維持しながら、モデルサイズを大幅に削減し、推論速度を向上させています。

モデル特徴

高効率軽量
わずか80MBのサイズで、推論速度は14,200文/秒を達成し、リソースが限られた環境での展開に適しています
多分野適応
学術論文、Q&Aコミュニティ、技術文書など17の異なる分野のデータセットで微調整されています
対照学習の最適化
バッチ内負例サンプリング戦略とコサイン類似度対照損失を用いて微調整されています

モデル能力

文のベクトル化
意味的類似度計算
意味的検索サポート
テキスト特徴量抽出

使用事例

情報検索
Q&Aシステムマッチング
ユーザーの質問とナレッジベースの質問をエンコードして最も類似した結果をマッチングします
MS MARCOなどの検索ベンチマークで良好なパフォーマンスを示しています
コンテンツ重複排除
コミュニティQ&A重複排除
StackExchangeなどのプラットフォーム上の重複質問を識別します
WikiAnswersデータセットに基づいて最適化されています
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase