C

COS TAPT N RoBERTa STS

Kyleiwaniecによって開発
sentence-transformersベースの文埋め込みモデルで、テキストを1024次元ベクトル空間にマッピングし、意味検索やテキストクラスタリングタスクに適しています。
ダウンロード数 14
リリース時間 : 8/10/2022

モデル概要

このモデルはRoBERTaアーキテクチャに基づいており、高品質な文埋め込みを生成するために訓練されており、文の類似度計算やテキスト特徴抽出をサポートします。

モデル特徴

高品質な文埋め込み
1024次元の密ベクトルを生成し、文の意味情報を効果的に捕捉
意味類似度計算
文類似度タスクに最適化されており、テキスト間の意味的関係を正確に測定可能
RoBERTaアーキテクチャベース
強力なRoBERTa事前学習モデルを基盤としており、優れたテキスト理解能力を提供

モデル能力

文埋め込み生成
意味類似度計算
テキスト特徴抽出
テキストクラスタリング分析

使用事例

情報検索
意味検索
キーワードではなく意味に基づく検索システムを構築
検索結果の関連性と精度を向上
テキスト分析
ドキュメントクラスタリング
類似内容のドキュメントを自動的にグループ化
教師なしのドキュメント分類と整理を実現
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase