S

Sentence Bert Base Ja Mean Tokens V2

sonoisaによって開発
これは日本語専用のSentence-BERTモデルで、バージョン1と比べてより優れた損失関数を使用して訓練されており、精度が1.5~2ポイント向上しています。
ダウンロード数 108.15k
リリース時間 : 3/2/2022

モデル概要

日本語版Sentence-BERTモデルで、日本語の文の埋め込みベクトル生成に使用され、文の類似度計算や特徴量抽出などのタスクに適しています。

モデル特徴

最適化された損失関数
MultipleNegativesRankingLossを使用して訓練されており、バージョン1と比べて精度が1.5-2%向上
日本語専用
日本語テキストに特化して最適化されたSentence-BERTモデル
高品質な事前訓練モデルベース
cl-tohoku/bert-base-japanese-whole-word-maskingを基に構築

モデル能力

日本語の文埋め込み
文類似度計算
特徴量抽出

使用事例

テキスト類似度
意味検索
文埋め込みベクトルの類似度計算を通じて意味検索を実現
重複コンテンツ検出
異なる表現だが意味が類似する文を識別
情報検索
文書クラスタリング
文埋め込みに基づいて文書をクラスタリング分析
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase