🚀 SapBERT-PubMedBERT
SapBERTは、生体医療分野のエンティティ表現を事前学習するための手法で、微細な意味関係を捉えることができます。
🚀 クイックスタート
SapBERTの概要や使い方を紹介します。
ニュース
- [ニュース] SapBERTの多言語拡張版が ACL 2021 の主要会議で発表されます!
- [ニュース] SapBERTが NAACL 2021 の会議録に掲載されます!
SapBERT-PubMedBERTの詳細
SapBERTはLiu et al. (2020)によって提案されました。UMLS 2020AA(英語のみ)を使用して学習され、microsoft/BiomedNLP-PubMedBERT-base-uncased-abstract-fulltextをベースモデルとしています。
入力と出力の期待値
入力は生体医療エンティティ名の文字列で、例えば "covid infection" や "Hydroxychloroquine" などです。最後のレイヤーの[CLS]埋め込みが出力と見なされます。
💻 使用例
基本的な使用法
次のスクリプトは、文字列のリスト(エンティティ名)を埋め込みに変換します。
import numpy as np
import torch
from tqdm.auto import tqdm
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("cambridgeltl/SapBERT-from-PubMedBERT-fulltext")
model = AutoModel.from_pretrained("cambridgeltl/SapBERT-from-PubMedBERT-fulltext").cuda()
all_names = ["covid-19", "Coronavirus infection", "high fever", "Tumor of posterior wall of oropharynx"]
bs = 128
all_embs = []
for i in tqdm(np.arange(0, len(all_names), bs)):
toks = tokenizer.batch_encode_plus(all_names[i:i+bs],
padding="max_length",
max_length=25,
truncation=True,
return_tensors="pt")
toks_cuda = {}
for k,v in toks.items():
toks_cuda[k] = v.cuda()
cls_rep = model(**toks_cuda)[0][:,0,:]
all_embs.append(cls_rep.cpu().detach().numpy())
all_embs = np.concatenate(all_embs, axis=0)
学習と評価の詳細については、SapBERTのgithubリポジトリを参照してください。
📄 ライセンス
このプロジェクトはApache-2.0ライセンスの下で公開されています。
📚 引用
@inproceedings{liu-etal-2021-self,
title = "Self-Alignment Pretraining for Biomedical Entity Representations",
author = "Liu, Fangyu and
Shareghi, Ehsan and
Meng, Zaiqiao and
Basaldella, Marco and
Collier, Nigel",
booktitle = "Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies",
month = jun,
year = "2021",
address = "Online",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/2021.naacl-main.334",
pages = "4228--4238",
abstract = "Despite the widespread success of self-supervised learning via masked language models (MLM), accurately capturing fine-grained semantic relationships in the biomedical domain remains a challenge. This is of paramount importance for entity-level tasks such as entity linking where the ability to model entity relations (especially synonymy) is pivotal. To address this challenge, we propose SapBERT, a pretraining scheme that self-aligns the representation space of biomedical entities. We design a scalable metric learning framework that can leverage UMLS, a massive collection of biomedical ontologies with 4M+ concepts. In contrast with previous pipeline-based hybrid systems, SapBERT offers an elegant one-model-for-all solution to the problem of medical entity linking (MEL), achieving a new state-of-the-art (SOTA) on six MEL benchmarking datasets. In the scientific domain, we achieve SOTA even without task-specific supervision. With substantial improvement over various domain-specific pretrained MLMs such as BioBERT, SciBERTand and PubMedBERT, our pretraining scheme proves to be both effective and robust.",
}
プロパティ |
詳細 |
モデルタイプ |
SapBERT-PubMedBERT |
学習データ |
UMLS 2020AA |