A

All Datasets V3 MiniLM L12

flax-sentence-embeddingsによって開発
MiniLM-L12アーキテクチャに基づく文エンベディングモデルで、対比学習を通じて10億を超える文ペアのデータセットで訓練され、高品質の意味ベクトル表現を生成できます。
ダウンロード数 887
リリース時間 : 3/2/2022

モデル概要

このモデルは文レベルの意味理解用に設計されたエンコーダで、入力テキストを384次元のベクトル表現に変換でき、情報検索やテキスト類似度計算などのシナリオに適しています。

モデル特徴

大規模対比学習訓練
10億の文ペアを含む多様なデータセットで対比学習訓練を行い、モデルの意味理解能力を強化します。
高効率軽量アーキテクチャ
MiniLM-L12に基づく軽量Transformerアーキテクチャで、性能を維持しながら計算リソースの要求を低減します。
多源データ融合
23の異なる分野のデータソースを統合し、モデルに広範な意味カバレッジ能力を持たせます。

モデル能力

テキストベクトル化
意味類似度計算
情報検索強化
テキストクラスタリング分析

使用事例

情報検索
検索エンジン結果の最適化
意味マッチングにより検索結果の関連性を向上させます。
クエリの意図を識別し、ユーザーのニーズにより合致したドキュメントを返します。
スマートカスタマーサービス
質問類似度マッチング
ユーザーの質問と知識ベースの質問の意味類似度を識別します。
自動質問応答システムの精度を向上させます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase