M

Multilingual Text Semantic Search Siamese BERT V1

SeyedAliによって開発
Siamese-BERTアーキテクチャに基づく多言語テキスト意味検索モデル、2.15億(質問,回答)ペアで訓練、384次元正規化埋め込みベクトルを生成
ダウンロード数 166
リリース時間 : 9/26/2023

モデル概要

このモデルは意味検索のために設計され、文や段落を384次元密ベクトル空間にマッピングし、多言語テキストの意味的類似度計算をサポート

モデル特徴

大規模訓練データ
11の異なるデータソースからの2.15億(質問,回答)ペアを使用して訓練
効率的な意味検索
意味検索シナリオに最適化され、テキスト類似度の高速計算をサポート
正規化埋め込み
正規化された384次元埋め込みベクトルを生成し、内積とコサイン類似度計算を等価にする
多言語サポート
主に英語データで訓練されているが、多言語テキスト意味検索を処理可能

モデル能力

テキスト意味エンコーディング
意味的類似度計算
質問応答マッチング
情報検索
多言語テキスト処理

使用事例

情報検索
質問応答システム
ユーザーの質問と知識ベースの候補回答をマッチング
クエリの意味に最も関連する回答を正確に見つけることが可能
ドキュメント検索
クエリの意味に基づいて関連するドキュメント段落を検索
キーワード検索に比べてより関連性の高い結果を得られる
コンテンツ推薦
関連質問推薦
与えられた質問に対して意味的に類似した他の質問を推薦
ユーザーエンゲージメントと問題解決率を向上できる
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase