M

Multi Qa MiniLM BERT Tiny Distill L 2 H 128 A Cos V1

rawshによって開発
これはBERT-Tinyに基づく軽量級の文埋め込みモデルで、セマンティック検索と文の類似度タスクに特化して設計されており、モデルサイズはわずか5MBです。
ダウンロード数 43
リリース時間 : 6/5/2023

モデル概要

このモデルは文や段落を128次元の密ベクトル空間にマッピングでき、クラスタリングやセマンティック検索などのタスクに適しています。nreimers/BERT-Tiny_L-2_H-128_A-2モデルをベースに、multi-qa-MiniLM-L6-cos-v1教師モデルから知識蒸留を行って学習しました。

モデル特徴

軽量級設計
モデルサイズはわずか5MBで、リソースが制限された環境に適しています。
知識蒸留
性能がより高いmulti-qa-MiniLM-L6-cos-v1教師モデルから学習します。
効率的なセマンティック表現
テキストを128次元のベクトル空間にマッピングし、セマンティック情報を保持します。

モデル能力

文の類似度計算
テキスト特徴抽出
セマンティック検索
テキストクラスタリング

使用事例

情報検索
質問応答システム
ユーザーの質問と知識ベース内の候補回答をマッチングするために使用します。
STS-devデータセットで0.7336のコサイン類似度のピアソン係数を達成しました。
コンテンツ推薦
類似コンテンツ推薦
セマンティック類似度に基づいて関連コンテンツを推薦します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase