S

Scincl

malteosによって開発
SciNCLは、研究論文の文書レベルの埋め込み表現を生成するための事前学習済みのBERT言語モデルで、引用文グラフの近傍関係を利用して対比学習で訓練されています。
ダウンロード数 6,744
リリース時間 : 3/2/2022

モデル概要

このモデルは、科学文献の埋め込み表現生成に特化しており、対比学習によって文書レベルの意味表現を最適化し、学術論文の類似度計算や推薦システムに適しています。

モデル特徴

引用文グラフ強化訓練
S2ORC引用文グラフの近傍関係を利用して対比学習サンプルを生成し、文書表現の品質を向上させます。
科学分野最適化
科学文献用に設計され、SciDocs評価基準で優れた性能を発揮します。
双テキストエンコード
タイトルと要約の連合エンコードをサポートします([SEP]タグで接続)

モデル能力

科学文献埋め込み表現生成
文書類似度計算
学術論文推薦

使用事例

学術研究
関連論文発見
埋め込み類似度を通じて、与えられた論文に関連する研究文献を検索します。
SciDocs評価の引用関係タスクで93.6 mapに達します。
学術推薦システム
コンテンツベースの論文推薦システムを構築します。
推薦タスクで54.3 ndcgに達します。
文献分析
研究トレンド分析
大規模文献埋め込みクラスタリングを通じて学科の発展脈絡を分析します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase