🚀 人工智能驱动的症状检查器 🏥🤖
本模型基于用户报告的症状预测潜在的医疗状况。它使用BERT构建,并在MedText数据集上进行了微调,可帮助用户获得初步的症状洞察。
🚀 快速开始
你可以使用以下代码示例快速体验该症状检查器:
from transformers import pipeline
model = pipeline("text-classification", model="Lech-Iyoko/bert-symptom-checker")
result = model("I have a severe headache and nausea.")
print(result)
✨ 主要特性
- 基于强大的BERT模型进行构建,在医疗文本分类任务上表现出色。
- 在MedText数据集上进行微调,能够更好地处理医疗症状相关文本。
- 具有较高的准确率和F1分数,能较为准确地预测潜在医疗状况。
📦 安装指南
文档未提供具体安装步骤,可参考transformers
库的官方安装指南进行安装。
💻 使用示例
基础用法
from transformers import pipeline
model = pipeline("text-classification", model="Lech-Iyoko/bert-symptom-checker")
result = model("I have a severe headache and nausea.")
print(result)
高级用法
文档未提供高级用法示例。
📚 详细文档
🔍 模型详情
属性 |
详情 |
模型类型 |
文本分类 |
基础模型 |
BERT (bert-base-uncased ) |
训练数据 |
MedText(1400个医疗案例) |
评估指标 |
准确率:96.5% ,F1分数:95.1% |
预期用途 |
帮助用户根据症状识别可能的病情 |
局限性 |
不能替代专业的医疗诊断 |
📌 局限性与伦理考量
⚠️ 重要提示
此模型不能用于医疗诊断。请始终咨询医疗专业人员。
📝 训练超参数
- 预处理:小写转换、分词、停用词去除
- 训练框架:Hugging Face transformers
- 训练模式:fp32(为保证稳定性进行全精度训练)
- 批量大小:16
- 学习率:3e - 5
- 训练轮数:5
- 优化器:AdamW
- 调度器:带热身的线性调度器
⏱ 速度、大小、时间
- 模型检查点大小:4.5GB
- 训练时长:在Google Colab上约3 - 4小时
- 吞吐量:每分钟1200个样本
🧪 评估
测试数据、因素和指标
- 测试数据
- 数据集:MedText(1400个样本)
- 数据集类型:医疗症状描述 → 病情预测
数据集划分
- 训练集:80%(1120个案例)
- 测试集:20%(280个案例)
评估指标
- 准确率:96.5%(衡量整体正确性)
- F1分数:95.1%(精确率和召回率的调和平均值)
- 精确率:94.7%(所有预测中正确的病情预测比例)
- 召回率:95.5%(所有实际病情中正确的病情预测比例)
📊 结果
指标 |
得分 |
准确率 |
96.5% |
F1分数 |
95.1% |
精确率 |
94.7% |
召回率 |
95.5% |
总结
- 优点:高召回率确保大多数病情能被正确识别。
- 缺点:由于数据集的局限性,模型在处理罕见病情时可能会遇到困难。
⚙️ 模型架构与目标
- 架构:针对医疗文本分类任务微调的BERT (
bert-base-uncased
)。
- 目标:根据患者的症状描述预测潜在的病情/结果。
💻 计算基础设施
硬件
- 训练:Google Colab(NVIDIA T4 GPU,16GB内存)
- 推理:Hugging Face推理API(针对CPU/GPU使用进行了优化)
软件
- Python版本:3.8
- 深度学习框架:PyTorch(transformers库)
- 分词器:BERT WordPiece分词器
- 预处理库:nltk、spacy、textacy
📄 许可证
本模型采用Apache 2.0许可证。