🚀 心理健康Alpaca模型卡片
這是一個基於在線文本數據進行心理健康預測的微調大語言模型,能夠利用文本數據為心理健康預測提供支持。
🚀 快速開始
使用以下代碼開始使用該模型:
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("NEU-HAI/Llama-2-7b-alpaca-cleaned")
model = AutoModelForCausalLM.from_pretrained("NEU-HAI/Llama-2-7b-alpaca-cleaned")
✨ 主要特性
這是一個針對心理健康預測場景進行微調的大語言模型,使用了4個高質量文本(共6個任務)數據集對Alpaca模型進行微調,這些數據集包括Dreaddit、DepSeverity、SDCNL和CCRS - Suicide。此外,還有一個基於FLAN - T5 - XXL微調的單獨模型Mental - FLAN - T5,可在此處獲取。
📚 詳細文檔
模型詳情
模型描述
我們針對心理健康預測場景,使用4個高質量文本(共6個任務)數據集對Alpaca模型進行了微調,這些數據集分別是Dreaddit、DepSeverity、SDCNL和CCRS - Suicide。
我們還有一個基於FLAN - T5 - XXL微調的單獨模型,即Mental - FLAN - T5,可在此處獲取。
- 開發者:東北大學以人為中心的人工智能實驗室
- 模型類型:序列到序列的文本生成
- 語言(NLP):英語
- 許可證:cc - by - nc - 4.0
- 微調基礎模型:https://github.com/tatsu-lab/stanford_alpaca
模型來源
- 倉庫:https://github.com/neuhai/Mental-LLM
- 論文:https://arxiv.org/abs/2307.14385
用途
直接使用
該模型僅用於英文研究目的。該模型已針對通過在線文本數據進行心理健康預測進行了微調。有關微調過程和提示的詳細信息,請參閱我們的論文。此模型的使用還應遵守stanford_alpaca項目和Llama - 2 - 7b的限制。
非預期使用
該模型的非預期使用應遵守stanford_alpaca項目和Llama - 2 - 7b的規定。
偏差、風險和侷限性
該模型的偏差、風險和侷限性也應遵守stanford_alpaca項目和Llama - 2 - 7b的規定。
訓練詳情和評估
有關我們工作的詳細信息,請參閱我們的論文。
📄 許可證
本模型使用的許可證為cc - by - nc - 4.0。
📚 引用
@article{xu2023leveraging,
title={Mental-LLM: Leveraging large language models for mental health prediction via online text data},
author={Xu, Xuhai and Yao, Bingshen and Dong, Yuanzhe and Gabriel, Saadia and Yu, Hong and Ghassemi, Marzyeh and Hendler, James and Dey, Anind K and Wang, Dakuo},
journal={arXiv preprint arXiv:2307.14385},
year={2023}
}