S

Sbert Roberta Large Anli Mnli Snli

usc-isiによって開発
RoBERTa-largeベースの文変換モデルで、文の類似性タスク向けに設計され、ANLI、MNLI、SNLIデータセットで訓練
ダウンロード数 38
リリース時間 : 3/2/2022

モデル概要

このモデルは文や段落を768次元ベクトル空間にマッピングでき、意味検索、クラスタリングなどの自然言語処理タスクに適しています

モデル特徴

高品質な文埋め込み
RoBERTa-largeアーキテクチャに基づき、高品質な文埋め込み表現を生成
複数データセット訓練
ANLI、MNLI、SNLIの3つの権威ある自然言語推論データセットで共同訓練
効率的なプーリング戦略
平均プーリング手法を採用し、単語埋め込み情報を効果的に集約

モデル能力

文のベクトル化
意味的類似度計算
テキストクラスタリング
意味検索

使用事例

情報検索
意味検索システム
キーワードではなく意味に基づく検索システムを構築
検索結果の関連性向上
テキスト分析
文書クラスタリング
意味的に類似した文書を自動的にグループ化
教師なし文書組織化を実現
自然言語理解
文の類似度計算
2つの文間の意味的類似度を計算
質問応答システム、言い換え検出などのアプリケーションに利用可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase