🚀 人工智能驅動的症狀檢查器 🏥🤖
本模型基於用戶報告的症狀預測潛在的醫療狀況。它使用BERT構建,並在MedText數據集上進行了微調,可幫助用戶獲得初步的症狀洞察。
🚀 快速開始
你可以使用以下代碼示例快速體驗該症狀檢查器:
from transformers import pipeline
model = pipeline("text-classification", model="Lech-Iyoko/bert-symptom-checker")
result = model("I have a severe headache and nausea.")
print(result)
✨ 主要特性
- 基於強大的BERT模型進行構建,在醫療文本分類任務上表現出色。
- 在MedText數據集上進行微調,能夠更好地處理醫療症狀相關文本。
- 具有較高的準確率和F1分數,能較為準確地預測潛在醫療狀況。
📦 安裝指南
文檔未提供具體安裝步驟,可參考transformers
庫的官方安裝指南進行安裝。
💻 使用示例
基礎用法
from transformers import pipeline
model = pipeline("text-classification", model="Lech-Iyoko/bert-symptom-checker")
result = model("I have a severe headache and nausea.")
print(result)
高級用法
文檔未提供高級用法示例。
📚 詳細文檔
🔍 模型詳情
屬性 |
詳情 |
模型類型 |
文本分類 |
基礎模型 |
BERT (bert-base-uncased ) |
訓練數據 |
MedText(1400個醫療案例) |
評估指標 |
準確率:96.5% ,F1分數:95.1% |
預期用途 |
幫助用戶根據症狀識別可能的病情 |
侷限性 |
不能替代專業的醫療診斷 |
📌 侷限性與倫理考量
⚠️ 重要提示
此模型不能用於醫療診斷。請始終諮詢醫療專業人員。
📝 訓練超參數
- 預處理:小寫轉換、分詞、停用詞去除
- 訓練框架:Hugging Face transformers
- 訓練模式:fp32(為保證穩定性進行全精度訓練)
- 批量大小:16
- 學習率:3e - 5
- 訓練輪數:5
- 優化器:AdamW
- 調度器:帶熱身的線性調度器
⏱ 速度、大小、時間
- 模型檢查點大小:4.5GB
- 訓練時長:在Google Colab上約3 - 4小時
- 吞吐量:每分鐘1200個樣本
🧪 評估
測試數據、因素和指標
- 測試數據
- 數據集:MedText(1400個樣本)
- 數據集類型:醫療症狀描述 → 病情預測
數據集劃分
- 訓練集:80%(1120個案例)
- 測試集:20%(280個案例)
評估指標
- 準確率:96.5%(衡量整體正確性)
- F1分數:95.1%(精確率和召回率的調和平均值)
- 精確率:94.7%(所有預測中正確的病情預測比例)
- 召回率:95.5%(所有實際病情中正確的病情預測比例)
📊 結果
指標 |
得分 |
準確率 |
96.5% |
F1分數 |
95.1% |
精確率 |
94.7% |
召回率 |
95.5% |
總結
- 優點:高召回率確保大多數病情能被正確識別。
- 缺點:由於數據集的侷限性,模型在處理罕見病情時可能會遇到困難。
⚙️ 模型架構與目標
- 架構:針對醫療文本分類任務微調的BERT (
bert-base-uncased
)。
- 目標:根據患者的症狀描述預測潛在的病情/結果。
💻 計算基礎設施
硬件
- 訓練:Google Colab(NVIDIA T4 GPU,16GB內存)
- 推理:Hugging Face推理API(針對CPU/GPU使用進行了優化)
軟件
- Python版本:3.8
- 深度學習框架:PyTorch(transformers庫)
- 分詞器:BERT WordPiece分詞器
- 預處理庫:nltk、spacy、textacy
📄 許可證
本模型採用Apache 2.0許可證。