🚀 大規模言語モデルを用いたPETレポートの自動パーソナライズ印象生成 📄✍
このプロジェクトは、大規模言語モデルを利用してPETレポートの印象を自動生成するものです。PETレポートの要約に特化したモデルを提供し、臨床現場での利用を支援します。
🚀 クイックスタート
モデルの使用例
finetuned_model = "xtie/BioBART-PET-impression"
tokenizer = AutoTokenizer.from_pretrained(finetuned_model)
model = AutoModelForSeq2SeqLM.from_pretrained(finetuned_model, ignore_mismatched_sizes=True).eval()
findings_info =
"""
Description: PET CT WHOLE BODY
Radiologist: James
Findings:
Head/Neck: xxx Chest: xxx Abdomen/Pelvis: xxx Extremities/Musculoskeletal: xxx
Indication:
The patient is a 60-year old male with a history of xxx
"""
inputs = tokenizer(findings_info.replace('\n', ' '),
padding="max_length",
truncation=True,
max_length=1024,
return_tensors="pt")
input_ids = inputs.input_ids.to("cuda")
attention_mask = inputs.attention_mask.to("cuda")
outputs = model.generate(input_ids,
attention_mask=attention_mask,
max_new_tokens=512,
num_beam_groups=1,
num_beams=4,
do_sample=False,
diversity_penalty=0.0,
num_return_sequences=1,
length_penalty=2.0,
no_repeat_ngram_size=3,
early_stopping=True
)
output_str = tokenizer.decode(outputs,
skip_special_tokens=True)
✨ 主な機能
- 微調整された大規模言語モデルを使用して、PETレポートの所見に基づいた臨床的に有用なパーソナライズ印象を生成します。
- 全身PETレポートの印象生成を自動化する最初の試みです。
📦 インストール
本READMEには具体的なインストール手順が記載されていないため、このセクションをスキップします。
📚 ドキュメント
📑 モデルの説明
これは、PETレポートの所見を要約するために微調整されたBioBARTモデルです。
PETレポート要約用の微調整された大規模言語モデル(LLM)を確認するには、以下のリンクを参照してください。
📑 概要
目的: 微調整された大規模言語モデル(LLM)が、全身PETレポートに対して正確なパーソナライズ印象を生成できるかどうかを判断すること。
材料と方法: 12の言語モデルを、PETレポートのコーパスを使用して教師強制アルゴリズムで訓練しました。レポートの所見を入力とし、臨床印象を参照としました。追加の入力トークンは、読影医の識別情報をエンコードし、モデルが医師固有の報告スタイルを学習できるようにします。当施設で2010年から2022年まで収集された37,370件の過去のPETレポートで構成されるコーパスを使用しました。最適なLLMを特定するために、30の評価指標を2人の核医学(NM)医師の品質スコアと比較し、最も一致する指標を使用して専門家評価用のモデルを選択しました。データのサブセットでは、モデルが生成した印象と元の臨床印象を、6つの品質次元と全体的な有用性スコア(5段階評価)に基づいて3人のNM医師が評価しました。各医師は、自分のレポート12件と他の医師のレポート12件をレビューしました。統計分析にはブートストラップリサンプリングを使用しました。
結果: すべての評価指標の中で、ドメイン適応型のBARTScoreとPEGASUSScoreが、医師の好みと最も高いスピアマンのρ相関(それぞれ0.568と0.563)を示しました。これらの指標に基づいて、微調整されたPEGASUSモデルが最適なLLMとして選択されました。医師が自分のスタイルでPEGASUSが生成した印象をレビューしたとき、89%が臨床的に許容できるとされ、平均有用性スコアは4.08/5でした。医師は、これらのパーソナライズ印象の全体的な有用性を、他の医師が口述した印象と同等と評価しました(4.03、P = 0.41)。
結論: PEGASUSが生成したパーソナライズ印象は臨床的に有用であり、PETレポート作成を迅速化する可能性を示しています。
論文全文を読む
📊 性能指標
詳細な評価結果については、論文を参照してください。
- ROUGE-1: 51.8
- ROUGE-2: 29.4
- ROUGE-L: 38.9
- BLEU: 22.5
- BERTScore: 0.737
🖥️ ハードウェア
モデルはNVIDIA A100 GPUで訓練されました。
🔧 技術詳細
本READMEには具体的な技術詳細が記載されていないため、このセクションをスキップします。
📄 ライセンス
本READMEにはライセンス情報が記載されていないため、このセクションをスキップします。
📁 追加リソース
著者: Xin Tie, Muheon Shin, Ali Pirasteh, Nevein Ibrahim, Zachary Huemann, Sharon M. Castellino, Kara Kelly, John Garrett, Junjie Hu, Steve Y. Cho, Tyler J. Bradshaw