P

Pubmedbert Mnli Snli Scinli Scitail Mednli Stsb

pritamdekaによって開発
PubMedBERTベースの文変換モデルで、文や段落の768次元ベクトル表現を生成し、意味検索やクラスタリングタスクに適しています。
ダウンロード数 213
リリース時間 : 11/3/2022

モデル概要

このモデルはPubMedBERTアーキテクチャに基づき、複数の自然言語推論および文類似度データセットで訓練されており、テキストを高品質なベクトル表現に変換でき、情報検索、意味類似度計算などのタスクに適用可能です。

モデル特徴

複数データセット訓練
SNLI、MNLI、SCINLI、SCITAIL、MEDNLI、STSBなどの複数データセットで訓練され、頑健な文埋め込みを提供します。
生物医学分野最適化
PubMedBERTアーキテクチャに基づき、生物医学分野のテキスト処理に特に適しています。
高次元ベクトル表現
768次元の密なベクトルを生成し、豊富な意味情報を捉えることができます。

モデル能力

文埋め込み生成
意味類似度計算
テキストクラスタリング
情報検索

使用事例

情報検索
学術文献検索
クエリ文と意味的に類似した学術文献を検索するために使用されます。
検索結果の関連性向上
テキスト分析
文書クラスタリング
意味的に類似した文書を自動的にグループ化します。
文書組織の効率向上
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase