🚀 臨床アサーション/否定分類BERT
このモデルは、臨床患者の手紙に記載された医療状態をPRESENT、ABSENT、POSSIBLEに分類することで、手紙内の情報を整理するのに役立ちます。
🚀 クイックスタート
臨床アサーションと否定分類のBERTは、論文 Assertion Detection in Clinical Notes: Medical Language Models to the Rescue? で紹介されています。このモデルは、臨床患者の手紙に記載された医療状態をPRESENT、ABSENT、POSSIBLEに分類することで、手紙内の情報を整理するのに役立ちます。
このモデルは、Alsentzerらによる ClinicalBERT - Bio + Discharge Summary BERT Model をベースに、2010 i2b2 challenge のアサーションデータで微調整されています。
✨ 主な機能
- 臨床患者の手紙に記載された医療状態をPRESENT、ABSENT、POSSIBLEに分類する。
- 特定のエンティティを含む文章を入力として受け取り、そのエンティティの状態を分類する。
📦 インストール
transformers
ライブラリを使用してモデルをロードすることができます。
from transformers import AutoTokenizer, AutoModelForSequenceClassification, TextClassificationPipeline
tokenizer = AutoTokenizer.from_pretrained("bvanaken/clinical-assertion-negation-bert")
model = AutoModelForSequenceClassification.from_pretrained("bvanaken/clinical-assertion-negation-bert")
💻 使用例
基本的な使用法
from transformers import AutoTokenizer, AutoModelForSequenceClassification, TextClassificationPipeline
tokenizer = AutoTokenizer.from_pretrained("bvanaken/clinical-assertion-negation-bert")
model = AutoModelForSequenceClassification.from_pretrained("bvanaken/clinical-assertion-negation-bert")
高度な使用法
input = "The patient recovered during the night and now denies any [entity] shortness of breath [entity]."
classifier = TextClassificationPipeline(model=model, tokenizer=tokenizer)
classification = classifier(input)
📚 ドキュメント
モデルは、PRESENT(0)
、ABSENT(1)
、または POSSIBLE(2)
として分類するために、1つのマークされたエンティティを含むスパン/文の形式の入力を期待しています。対象のエンティティは、特殊トークン [entity]
で囲まれて識別されます。
📄 ライセンス
このモデルを使用する際は、以下のように論文を引用してください。
@inproceedings{van-aken-2021-assertion,
title = "Assertion Detection in Clinical Notes: Medical Language Models to the Rescue?",
author = "van Aken, Betty and
Trajanovska, Ivana and
Siu, Amy and
Mayrdorfer, Manuel and
Budde, Klemens and
Loeser, Alexander",
booktitle = "Proceedings of the Second Workshop on Natural Language Processing for Medical Conversations",
year = "2021",
address = "Online",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2021.nlpmc-1.5",
doi = "10.18653/v1/2021.nlpmc-1.5"
}