D

Deberta Sentence Transformer

embedding-dataによって開発
これはDeBERTaアーキテクチャに基づく文変換器モデルで、文や段落を768次元の密集ベクトル空間にマッピングでき、意味検索やクラスタリングなどのタスクに適しています。
ダウンロード数 825
リリース時間 : 8/5/2022

モデル概要

このモデルはDeBERTaアーキテクチャに基づいており、文や段落のベクトル表現生成に特化しており、意味類似度計算やテキスト埋め込みタスクをサポートします。

モデル特徴

高次元ベクトル表現
文や段落を768次元の密集ベクトル空間にマッピングでき、豊富な意味情報を捉えることができます。
意味類似度計算
文間の意味類似度の計算に適しており、クラスタリングや意味検索タスクをサポートします。
DeBERTaアーキテクチャに基づく
DeBERTaの強力な性能を利用し、高品質の文埋め込み表現を提供します。

モデル能力

文埋め込み生成
意味類似度計算
テキストクラスタリング
意味検索

使用事例

情報検索
意味検索
文埋め込みを使用して検索エンジンの意味マッチング能力を向上させる
検索結果の関連性を向上させる
テキスト分析
文書クラスタリング
意味類似度に基づいて文書を自動的にグループ化する
教師なしの文書分類を実現する
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase