🚀 ポルトガル語臨床NER - 薬理学
薬理学的な固有表現抽出(NER)モデルは、BioBERTptプロジェクトの一部です。このプロジェクトでは、臨床エンティティ(UMLSと互換性がある)の13種類のモデルが訓練されています。"pucpr"ユーザーのすべてのNERモデルは、ブラジルの臨床コーパスSemClinBrから、BioBERTpt(all)モデルを元に、10エポックでIOB2形式で訓練されています。
✨ 主な機能
- ポルトガル語の臨床テキストから薬理学的な固有表現を抽出する機能があります。
- UMLSと互換性のある臨床エンティティを認識できます。
📦 インストール
原文書にインストール手順が記載されていないため、このセクションは省略されます。
💻 使用例
原文書にコード例が記載されていないため、このセクションは省略されます。
📚 ドキュメント
ウィジェットのテキスト情報
- 退院時に処方された慢性心不全の投薬スキームとして、フロセミド40mg 1日2回、イソソルビド40mg 1日3回、ジゴキシン0.25mg/日、カプトプリル50mg 1日3回、エスピロノラクトン25mg/日を服用しています。
- 以前からフロセミド40mg 1日2回、ジゴキシン0.25mg/日、シンバスタチン40mg/夜、カプトプリル50mg 1日3回、イソソルビド20mg 1日3回、アセチルサリチル酸100mg/日、エスピロノラクトン25mg/日を服用していました。
データセット
サムネイル

🔧 技術詳細
原文書に技術詳細が記載されていないため、このセクションは省略されます。
📄 ライセンス
原文書にライセンス情報が記載されていないため、このセクションは省略されます。
謝辞
この研究は、Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - Brasil (CAPES)によって一部資金提供されました - 財政コード001。
引用
@inproceedings{schneider-etal-2020-biobertpt,
title = "{B}io{BERT}pt - A {P}ortuguese Neural Language Model for Clinical Named Entity Recognition",
author = "Schneider, Elisa Terumi Rubel and
de Souza, Jo{\~a}o Vitor Andrioli and
Knafou, Julien and
Oliveira, Lucas Emanuel Silva e and
Copara, Jenny and
Gumiel, Yohan Bonescki and
Oliveira, Lucas Ferro Antunes de and
Paraiso, Emerson Cabrera and
Teodoro, Douglas and
Barra, Cl{\'a}udia Maria Cabral Moro",
booktitle = "Proceedings of the 3rd Clinical Natural Language Processing Workshop",
month = nov,
year = "2020",
address = "Online",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/2020.clinicalnlp-1.7",
pages = "65--72",
abstract = "With the growing number of electronic health record data, clinical NLP tasks have become increasingly relevant to unlock valuable information from unstructured clinical text. Although the performance of downstream NLP tasks, such as named-entity recognition (NER), in English corpus has recently improved by contextualised language models, less research is available for clinical texts in low resource languages. Our goal is to assess a deep contextual embedding model for Portuguese, so called BioBERTpt, to support clinical and biomedical NER. We transfer learned information encoded in a multilingual-BERT model to a corpora of clinical narratives and biomedical-scientific papers in Brazilian Portuguese. To evaluate the performance of BioBERTpt, we ran NER experiments on two annotated corpora containing clinical narratives and compared the results with existing BERT models. Our in-domain model outperformed the baseline model in F1-score by 2.72{\%}, achieving higher performance in 11 out of 13 assessed entities. We demonstrate that enriching contextual embedding models with domain literature can play an important role in improving performance for specific NLP tasks. The transfer learning process enhanced the Portuguese biomedical NER model by reducing the necessity of labeled data and the demand for retraining a whole new model.",
}
質問はこちら
BioBERTptのリポジトリにGitHubのイシューを投稿してください。