🚀 心理健康Alpaca模型卡片
这是一个基于在线文本数据进行心理健康预测的微调大语言模型,能够利用文本数据为心理健康预测提供支持。
🚀 快速开始
使用以下代码开始使用该模型:
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("NEU-HAI/Llama-2-7b-alpaca-cleaned")
model = AutoModelForCausalLM.from_pretrained("NEU-HAI/Llama-2-7b-alpaca-cleaned")
✨ 主要特性
这是一个针对心理健康预测场景进行微调的大语言模型,使用了4个高质量文本(共6个任务)数据集对Alpaca模型进行微调,这些数据集包括Dreaddit、DepSeverity、SDCNL和CCRS - Suicide。此外,还有一个基于FLAN - T5 - XXL微调的单独模型Mental - FLAN - T5,可在此处获取。
📚 详细文档
模型详情
模型描述
我们针对心理健康预测场景,使用4个高质量文本(共6个任务)数据集对Alpaca模型进行了微调,这些数据集分别是Dreaddit、DepSeverity、SDCNL和CCRS - Suicide。
我们还有一个基于FLAN - T5 - XXL微调的单独模型,即Mental - FLAN - T5,可在此处获取。
- 开发者:东北大学以人为中心的人工智能实验室
- 模型类型:序列到序列的文本生成
- 语言(NLP):英语
- 许可证:cc - by - nc - 4.0
- 微调基础模型:https://github.com/tatsu-lab/stanford_alpaca
模型来源
- 仓库:https://github.com/neuhai/Mental-LLM
- 论文:https://arxiv.org/abs/2307.14385
用途
直接使用
该模型仅用于英文研究目的。该模型已针对通过在线文本数据进行心理健康预测进行了微调。有关微调过程和提示的详细信息,请参阅我们的论文。此模型的使用还应遵守stanford_alpaca项目和Llama - 2 - 7b的限制。
非预期使用
该模型的非预期使用应遵守stanford_alpaca项目和Llama - 2 - 7b的规定。
偏差、风险和局限性
该模型的偏差、风险和局限性也应遵守stanford_alpaca项目和Llama - 2 - 7b的规定。
训练详情和评估
有关我们工作的详细信息,请参阅我们的论文。
📄 许可证
本模型使用的许可证为cc - by - nc - 4.0。
📚 引用
@article{xu2023leveraging,
title={Mental-LLM: Leveraging large language models for mental health prediction via online text data},
author={Xu, Xuhai and Yao, Bingshen and Dong, Yuanzhe and Gabriel, Saadia and Yu, Hong and Ghassemi, Marzyeh and Hendler, James and Dey, Anind K and Wang, Dakuo},
journal={arXiv preprint arXiv:2307.14385},
year={2023}
}