U

Unsup Simcse Bert Base Uncased

princeton-nlpによって開発
BERTアーキテクチャに基づく教師なし対比学習モデルで、簡単で効果的な対比学習フレームワークにより文の埋め込み品質を向上させます。
ダウンロード数 9,546
リリース時間 : 3/2/2022

モデル概要

このモデルは対比学習フレームワークSimCSEを採用し、教師なし方式で文の埋め込み表現を学習し、特徴抽出タスクに適しています。

モデル特徴

教師なし対比学習
元のテキストのみで高品質な文の埋め込みを学習でき、ラベル付きデータは必要ありません。
簡単で効率的
dropoutメカニズムで正のサンプルペアを構築し、複雑なデータ拡張は必要ありません。
等方性最適化
事前学習モデルの異方性問題を効果的に改善し、埋め込み空間の一貫性を向上させます。

モデル能力

文の埋め込み抽出
意味的類似度計算
テキスト特徴表現学習

使用事例

意味検索
文書類似度マッチング
文書/文間の意味的類似度を計算します。
STSタスクで優れた性能を発揮します。
下流NLPタスク
転移学習特徴抽出
分類/クラスタリングタスクの事前学習特徴として使用します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase