🚀 HealthScribe (臨床ノート生成器)
このモデルは、医師と患者の会話の自動音声認識(ASR)データから臨床ノートを生成するためのモデルです。
🚀 クイックスタート
HealthScribeは、facebook/bart-large-cnn を MTS-Dialog Dataset の修正版データセットでファインチューニングしたモデルです。このモデルはFlaskウェブアプリケーションと統合されており、医師と患者の会話のASRデータから臨床ノートを生成できます。
✨ 主な機能
- 医師と患者の会話のASRデータから臨床ノートを生成する。
- Flaskウェブアプリケーションと統合されている。
📦 インストール
このセクションでは、原READMEにインストールに関する具体的な内容がないため、省略されています。
💻 使用例
基本的な使用法
推論用のテストデータサンプルは、test.txt
を参照できます。
"Doctor: Hi there, I love that dress, very pretty!
Patient: Thank you for complementing a seventy-two-year-old patient.
Doctor: No, I mean it, seriously. Okay, so you were admitted here in May two thousand nine. You have a history of hypertension, and on June eighteenth two thousand nine you had bad abdominal pain diarrhea and cramps.
Patient: Yes, they told me I might have C Diff? They did a CT of my abdomen and that is when they thought I got the infection.
Doctor: Yes, it showed evidence of diffuse colitis, so I believe they gave you IV antibiotics?
Patient: Yes they did.
Doctor: Yeah I see here, Flagyl and Levaquin. They started IV Reglan as well for your vomiting.
Patient: Yes, I was very nauseous. Vomited as well.
Doctor: After all this I still see your white blood cells high. Are you still nauseous?
Patient: No, I do not have any nausea or vomiting, but still have diarrhea. Due to all that diarrhea I feel very weak.
Doctor: Okay. Anything else any other symptoms?
Patient: Actually no. Everything's well.
Doctor: Great.
Patient: Yeah."
📚 ドキュメント
モデルの説明
このモデルは、HealthScirbe プロジェクトのために開発されました。このモデルはFlaskウェブアプリケーションと統合されています。このプロジェクトは、医師と患者の会話のASRデータから臨床ノートを生成するウェブアプリケーションです。
意図された用途と制限
このモデルは、医師と患者の会話データ(ASR)から臨床ノートを生成するために使用されます。ただし、以下のような制限があります。
- N/A出力の生成が少ない。時にはNoneが生成されることがある。
- 入力データが非常に少ない文字トークンで構成されている場合、または入力が非常に大きい場合、ハロウィングが発生することがある。
🔧 技術詳細
トレーニングと評価データ
このモデルは、評価セットで以下の結果を達成しています。
- 損失率: 0.1562
- Rouge1: 54.3238
- Rouge2: 34.2678
- Rougel: 46.5847
- Rougelsum: 51.2214
- 生成長: 77.04
トレーニング手順
このモデルは、修正版の MTS-Dialog の1201個のトレーニングサンプルと100個の検証サンプルでトレーニングされました。
トレーニングハイパーパラメータ
トレーニング中に使用されたハイパーパラメータは以下の通りです。
learning_rate
: 2e-05
train_batch_size
: 1
eval_batch_size
: 1
seed
: 42
gradient_accumulation_steps
: 2
total_train_batch_size
: 2
optimizer
: Adam with betas=(0.9,0.999) and epsilon=1e-08
lr_scheduler_type
: linear
num_epochs
: 3
mixed_precision_training
: Native AMP
トレーニング結果
トレーニング損失 |
エポック |
ステップ |
検証損失 |
Rouge1 |
Rouge2 |
Rougel |
Rougelsum |
生成長 |
0.4426 |
1.0 |
600 |
0.1588 |
52.8864 |
33.253 |
44.9089 |
50.5072 |
69.38 |
0.1137 |
2.0 |
1201 |
0.1517 |
56.8499 |
35.309 |
48.2171 |
53.6983 |
72.74 |
0.0796 |
3.0 |
1800 |
0.1562 |
54.3238 |
34.2678 |
46.5847 |
51.2214 |
77.04 |
フレームワークバージョン
- Transformers 4.39.2
- Pytorch 2.2.1+cu121
- Datasets 2.18.0
- Tokenizers 0.15.2
📄 ライセンス
このモデルはMITライセンスの下で提供されています。