🚀 MentalBART - 可解释心理健康分析模型
MentalBART是一款专为心理健康分析设计的模型,它是MentaLLaMA项目的一部分。该项目旨在打造首个具备指令跟随能力、可用于可解释心理健康分析的开源大语言模型系列。MentalBART基于facebook/bart-large基础模型和完整的IMHI指令调优数据进行微调,能够对各种心理健康状况进行复杂分析,并为每个预测结果提供可靠解释。
🚀 快速开始
你可以在Python项目中使用Hugging Face Transformers库来加载和使用MentalBART模型。以下是一个简单的加载示例:
from transformers import BartTokenizer, BartModel
tokenizer = BartTokenizer.from_pretrained('Tianlin668/MentalBART')
model = BartModel.from_pretrained('Tianlin668/MentalBART')
✨ 主要特性
- 可解释性分析:能够对各种心理健康状况进行复杂分析,并为每个预测结果提供可靠解释。
- 指令跟随能力:经过75K高质量自然语言指令的IMHI数据集微调,在下游任务中表现出色。
- 综合评估验证:在包含20K测试样本的IMHI基准测试中进行了全面评估,结果显示在正确性和解释生成方面表现良好。
📚 详细文档
模型简介
MentalBART是MentaLLaMA项目的一部分,该项目致力于开发可解释的心理健康分析大语言模型。MentalBART基于facebook/bart-large基础模型和完整的IMHI指令调优数据进行微调,旨在对各种心理健康状况进行复杂分析,并为每个预测结果提供可靠解释。
伦理考量
尽管MentalBART在可解释心理健康分析方面表现出了良好的性能,但我们强调,所有预测结果和生成的解释仅应用于非临床研究。寻求帮助者应从专业的精神科医生或临床从业者那里获得帮助。此外,近期研究表明大语言模型可能会引入一些潜在的偏差,如性别差距。同时,一些不正确的预测结果、不恰当的解释和过度概括也说明了当前大语言模型存在的潜在风险。因此,将该模型应用于实际场景的心理健康监测系统仍面临许多挑战。
MentaLLaMA项目中的其他模型
除了MentalBART,MentaLLaMA项目还包括以下模型:
- MentaLLaMA-chat-13B:基于Meta LLaMA2-chat-13B基础模型和完整的IMHI指令调优数据进行微调,训练数据涵盖10项心理健康分析任务。
- MentaLLaMA-chat-7B:基于Meta LLaMA2-chat-7B基础模型和完整的IMHI指令调优数据进行微调,训练数据涵盖10项心理健康分析任务。
- MentalT5:基于T5-large基础模型和完整的IMHI完成数据进行微调,训练数据涵盖10项心理健康分析任务。该模型不具备指令跟随能力,但更轻量级,在基于完成的可解释心理健康分析中表现良好。
引用信息
如果你在工作中使用了MentalBART,请引用我们的论文:
@misc{yang2023mentalllama,
title={MentalLLaMA: Interpretable Mental Health Analysis on Social Media with Large Language Models},
author={Kailai Yang and Tianlin Zhang and Ziyan Kuang and Qianqian Xie and Sophia Ananiadou},
year={2023},
eprint={2309.13567},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
📄 许可证
MentalBART采用MIT许可证。更多详细信息,请参阅MIT文件。