🚀 大規模言語モデルを用いたPETレポートの自動パーソナライズ印象生成 📄✍
このプロジェクトは、大規模言語モデルを利用してPETレポートの印象を自動的に生成するものです。PETレポートの要約を高精度に行い、臨床現場での利用に貢献します。
🚀 クイックスタート
このセクションでは、モデルの使用方法を説明します。以下のコード例を参考に、PETレポートの要約を行うことができます。
finetuned_model = "xtie/ClinicalT5-PET-impression"
tokenizer = AutoTokenizer.from_pretrained(finetuned_model)
model = AutoModelForSeq2SeqLM.from_pretrained(finetuned_model, ignore_mismatched_sizes=True).eval()
findings_info =
"""
Description: PET CT WHOLE BODY
Radiologist: James
Findings:
Head/Neck: xxx Chest: xxx Abdomen/Pelvis: xxx Extremities/Musculoskeletal: xxx
Indication:
The patient is a 60-year old male with a history of xxx
"""
inputs = tokenizer(findings_info.replace('\n', ' '),
padding="max_length",
truncation=True,
max_length=1024,
return_tensors="pt")
input_ids = inputs.input_ids.to("cuda")
attention_mask = inputs.attention_mask.to("cuda")
outputs = model.generate(input_ids,
attention_mask=attention_mask,
max_new_tokens=512,
num_beam_groups=1,
num_beams=4,
do_sample=False,
diversity_penalty=0.0,
num_return_sequences=1,
length_penalty=2.0,
no_repeat_ngram_size=3,
early_stopping=True
)
output_str = tokenizer.decode(outputs,
skip_special_tokens=True)
✨ 主な機能
- 高精度な要約:PETレポートの所見を高精度に要約し、臨床的に有用な印象を生成します。
- パーソナライズ機能:読影医のスタイルを考慮したパーソナライズされた印象を生成します。
- 複数モデル対応:BERT2BERT、BART、BioBART、PEGASUS、T5v1.1、Clinical-T5、Flan-T5、GPT2-XL、OPT-1.3B、LLaMA-LoRA、Alpaca-LoRAなどの複数の大規模言語モデルをサポートしています。
📦 インストール
このモデルを使用するには、必要なライブラリをインストールする必要があります。以下のコマンドを実行してください。
pip install transformers
📚 ドキュメント
📑 モデルの説明
これは、PETレポートの所見を要約するために微調整されたClinical-T5モデルです。
PETレポート要約用の微調整された大規模言語モデル(LLM)を確認するには、以下のリンクを参照してください。
📑 概要
目的:微調整された大規模言語モデル(LLM)が全身PETレポートに対して正確でパーソナライズされた印象を生成できるかどうかを判断すること。
材料と方法:12の言語モデルを、PETレポートのコーパスを使用して教師強制アルゴリズムで訓練しました。レポートの所見を入力とし、臨床的な印象を参照としました。追加の入力トークンにより、読影医の識別情報をエンコードし、モデルが医師固有のレポートスタイルを学習できるようにしました。当施設で2010年から2022年までに収集された37,370件の過去のPETレポートをコーパスとして使用しました。最適なLLMを特定するために、30の評価指標を2人の核医学医(NM)の品質スコアと比較し、最も一致する指標を使用して専門家評価用のモデルを選択しました。データの一部では、モデルが生成した印象と元の臨床的な印象を、3人のNM医によって6つの品質次元と全体的な有用性スコア(5段階評価)に基づいて評価しました。各医師は、自分のレポート12件と他の医師のレポート12件をレビューしました。統計分析にはブートストラップ再サンプリングを使用しました。
結果:すべての評価指標の中で、ドメイン適応型のBARTScoreとPEGASUSScoreが、医師の好みと最も高いスピアマンのρ相関(それぞれ0.568と0.563)を示しました。これらの指標に基づいて、微調整されたPEGASUSモデルが最適なLLMとして選択されました。医師が自分のスタイルでPEGASUSが生成した印象をレビューしたところ、89%が臨床的に許容できるとされ、平均有用性スコアは4.08/5でした。医師は、これらのパーソナライズされた印象を、他の医師が口述した印象と全体的な有用性で同等と評価しました(4.03、P = 0.41)。
結論:PEGASUSによって生成されたパーソナライズされた印象は臨床的に有用であり、PETレポートの作成を迅速化する可能性があることが示されました。
論文全文を読む
📊 性能指標
詳細な評価結果については、論文を参照してください。
指標 |
値 |
ROUGE-1 |
53.2 |
ROUGE-2 |
30.1 |
ROUGE-L |
39.4 |
BLEU |
23.9 |
BERTScore |
0.743 |
💡 特長
- 微調整された大規模言語モデルは、PETの所見に基づいて臨床的に有用なパーソナライズされた印象を提供します。
- 私たちの知る限り、これは全身PETレポートの印象生成を自動化する最初の試みです。
🖥️ ハードウェア
モデルはNVIDIA A100 GPU上で訓練されました。
📁 追加リソース