F

Finetune Embedding All MiniLM L6 V2 Geotechnical Test V4

GbrlOlによって開発
文の類似度計算用の事前学習済みモデルで、文を高次元ベクトル空間の埋め込み表現に変換し、それらの間の意味的類似度を計算できます。
ダウンロード数 20
リリース時間 : 1/26/2025

モデル概要

このモデルはsentence-transformers/all-MiniLM-L6-v2アーキテクチャに基づいており、文の類似度計算と特徴抽出に特化しています。文をベクトル表現に変換し、ベクトル間の類似度を計算することで文の意味的類似性を測定します。

モデル特徴

効率的な文埋め込み
文を高次元ベクトル表現に変換し、文の意味情報を捉えます。
複数の類似度測定
コサイン類似度、ユークリッド距離、マンハッタン距離など、複数の類似度測定方法をサポートしています。
小規模で効率的なモデル
MiniLMアーキテクチャに基づき、モデルサイズが小さくても高性能で、リソースが限られた環境に適しています。

モデル能力

文類似度計算
文特徴抽出
意味検索
テキストマッチング

使用事例

情報検索
質問応答システム
ユーザーの質問と候補回答の意味的類似度をマッチングするために使用します。
STS開発セットで0.569のピアソンコサイン類似度を達成しました。
テキスト分類
重複質問検出
Quoraなどのプラットフォームでの重複質問を識別します。
Quora重複質問開発セットで0.794の精度を達成しました。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase