A

All Datasets V3 MiniLM L6

flax-sentence-embeddingsによって開発
MiniLMアーキテクチャに基づく文埋め込みモデルで、自己教師ありコントラスティブラーニングにより10億以上の文ペアデータセットでトレーニングされ、高品質な文ベクトル表現を生成可能
ダウンロード数 46
リリース時間 : 3/2/2022

モデル概要

このモデルは、文を意味情報を含むベクトル表現にエンコードするために設計されており、情報検索、クラスタリング、文類似度計算などのタスクに適しています

モデル特徴

大規模トレーニングデータ
10億以上の多様な文ペアデータセットでトレーニングされ、Q&A、フォーラムディスカッション、画像説明など様々なテキストタイプをカバー
コントラスティブラーニング最適化
自己教師ありコントラスティブラーニング目標を採用し、モデルが意味的に類似した文と類似していない文をよりよく区別できるようにする
効率的なアーキテクチャ
MiniLMベースの6層コンパクトアーキテクチャで、性能を維持しながら推論効率を向上

モデル能力

文ベクトル化
意味的類似度計算
情報検索
テキストクラスタリング

使用事例

情報検索
ドキュメント検索
クエリ文とドキュメントをベクトルに変換し、意味に基づくドキュメント検索を実現
従来のキーワードマッチングに比べ、ユーザーの検索意図をよりよく理解できる
質問応答システム
質問マッチング
ユーザーの質問と知識ベースの質問の類似度を計算し、最も関連性の高い回答を見つける
QAシステムの精度とユーザーエクスペリエンスを向上
テキスト分析
テキストクラスタリング
類似内容のテキストを自動的にグループ化
トピック発見、ユーザーフィードバック分析などのシナリオに使用可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase