M

Moco Sentencebertv2.0

bongsooによって開発
韓国語と英語に最適化された文埋め込みモデルで、意味的類似度計算とテキスト特徴抽出をサポート
ダウンロード数 17
リリース時間 : 9/19/2022

モデル概要

このモデルはmultilingual BERTを改良した文埋め込みモデルで、教師生徒蒸留トレーニングにより最適化されており、韓国語と英語の文類似度計算、意味検索、テキストクラスタリングタスクに適しています。

モデル特徴

二言語最適化
韓国語と英語に特化して最適化されており、両言語の意味理解タスクで優れた性能を発揮
知識蒸留
paraphrase-multilingual-mpnet-base-v2を教師モデルとして蒸留トレーニングを行い、モデル性能を向上
拡張語彙
元のmultilingual BERTに32,989語を追加し、総語彙数は152,537語に達する
効率的推論
最大128トークン長の入力をサポートし、単一GPUでの推論時のメモリ使用量は約9GB

モデル能力

文埋め込み生成
意味的類似度計算
テキスト特徴抽出
言語間意味マッチング

使用事例

情報検索
類似質問マッチング
Q&Aシステムでユーザーの質問と意味的に類似した質問を検索
korstsテストセットで0.824のコサイン類似度スコアを達成
コンテンツ推薦
関連記事推薦
コンテンツの意味的類似度に基づいて関連記事やニュースを推薦
多言語アプリケーション
韓英言語間検索
韓国語と英語間の言語間意味マッチングをサポート
stsb_multi_mtデータセットで0.843の類似度スコアを達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase