🚀 Diabetica-7B
Diabetica:适配大语言模型以增强糖尿病护理和管理中的多项医疗任务
🚀 快速开始
本项目是关于 Diabetica 的Hugging Face仓库。我们的研究引入了一个可复现的框架,用于开发能够处理各种糖尿病任务的专业大语言模型。
项目链接如下:
✨ 主要特性
本项目有以下三个关键贡献:
- 高性能特定领域模型:与之前的通用大语言模型相比,我们的模型 Diabetica 在广泛的糖尿病相关任务中表现出卓越的性能,包括诊断、治疗建议、药物管理、生活方式建议、患者教育等。
- 可复现的框架:我们提供了一种详细的方法,使用开源模型、精心策划的特定疾病数据集和微调技术来创建专业的医疗大语言模型。这种方法可以应用于其他医疗领域,有可能加速人工智能辅助医疗的发展。
- 全面评估:我们设计了全面的基准测试并进行了临床试验,以验证模型在临床应用中的有效性。这确保了我们模型的实际实用性,并为评估糖尿病护理中的人工智能工具设定了新的标准。
更多详细信息请参考我们的 GitHub 仓库。
📦 安装指南
文档未提及安装步骤,暂不提供。
💻 使用示例
基础用法
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
device = "cuda"
model_path = 'WaltonFuture/Diabetica-7B'
model = AutoModelForCausalLM.from_pretrained(
model_path,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_path)
def model_output(content):
messages = [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": content}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)
generated_ids = model.generate(
model_inputs.input_ids,
max_new_tokens=2048,
do_sample=True,
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
return response
prompt = "Hello! Please tell me something about diabetes."
response = model_output(prompt)
print(response)
📚 详细文档
文档未提及详细说明,暂不提供。
🔧 技术细节
文档未提及技术实现细节,暂不提供。
📄 许可证
本项目采用 MIT 许可证。
📄 引用
@article{wei2024adapted,
title={An adapted large language model facilitates multiple medical tasks in diabetes care},
author={Wei, Lai and Ying, Zhen and He, Muyang and Chen, Yutong and Yang, Qian and Hong, Yanzhe and Lu, Jiaping and Li, Xiaoying and Huang, Weiran and Chen, Ying},
journal={arXiv preprint arXiv:2409.13191},
year={2024}
}
信息表格
属性 |
详情 |
库名称 |
transformers |
任务类型 |
文本生成 |
许可证 |
MIT |
基础模型 |
Qwen/Qwen2-7B-Instruct |
标签 |
medical |
数据集 |
WaltonFuture/Diabetica-SFT |