S

Sup Simcse Bert Large Uncased

princeton-nlpによって開発
BERTアーキテクチャに基づく文埋め込みモデルで、対照学習により文表現を最適化し、特徴抽出タスクに適している
ダウンロード数 1,545
リリース時間 : 3/2/2022

モデル概要

このモデルはSimCSEの対照学習手法を用いてBERTの文埋め込み表現を最適化し、意味的類似度タスクの性能を向上させる

モデル特徴

対照学習による最適化
SimCSEの対照学習手法を採用し、文の整合性を保ちながら埋め込み空間の均一性を改善
教師あり学習の強化
MNLIとSNLIデータセットを組み合わせた教師あり学習により、文表現の品質をさらに向上
異方性の改善
従来のBERT埋め込みの異方性問題を効果的に解決し、より均一な意味空間を生成

モデル能力

文特徴抽出
意味的類似度計算
テキスト表現学習

使用事例

意味解析
意味的テキスト類似性(STS)
2つの文間の意味的類似度スコアを計算
STSベンチマークで優れた性能(具体的な指標は提供されていない)
下流NLPタスク
転移学習特徴
様々なNLP下流タスクの事前学習特徴として使用
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase