🚀 MentalBART - 可解釋心理健康分析模型
MentalBART是一款專為心理健康分析設計的模型,它是MentaLLaMA項目的一部分。該項目旨在打造首個具備指令跟隨能力、可用於可解釋心理健康分析的開源大語言模型系列。MentalBART基於facebook/bart-large基礎模型和完整的IMHI指令調優數據進行微調,能夠對各種心理健康狀況進行復雜分析,併為每個預測結果提供可靠解釋。
🚀 快速開始
你可以在Python項目中使用Hugging Face Transformers庫來加載和使用MentalBART模型。以下是一個簡單的加載示例:
from transformers import BartTokenizer, BartModel
tokenizer = BartTokenizer.from_pretrained('Tianlin668/MentalBART')
model = BartModel.from_pretrained('Tianlin668/MentalBART')
✨ 主要特性
- 可解釋性分析:能夠對各種心理健康狀況進行復雜分析,併為每個預測結果提供可靠解釋。
- 指令跟隨能力:經過75K高質量自然語言指令的IMHI數據集微調,在下游任務中表現出色。
- 綜合評估驗證:在包含20K測試樣本的IMHI基準測試中進行了全面評估,結果顯示在正確性和解釋生成方面表現良好。
📚 詳細文檔
模型簡介
MentalBART是MentaLLaMA項目的一部分,該項目致力於開發可解釋的心理健康分析大語言模型。MentalBART基於facebook/bart-large基礎模型和完整的IMHI指令調優數據進行微調,旨在對各種心理健康狀況進行復雜分析,併為每個預測結果提供可靠解釋。
倫理考量
儘管MentalBART在可解釋心理健康分析方面表現出了良好的性能,但我們強調,所有預測結果和生成的解釋僅應用於非臨床研究。尋求幫助者應從專業的精神科醫生或臨床從業者那裡獲得幫助。此外,近期研究表明大語言模型可能會引入一些潛在的偏差,如性別差距。同時,一些不正確的預測結果、不恰當的解釋和過度概括也說明了當前大語言模型存在的潛在風險。因此,將該模型應用於實際場景的心理健康監測系統仍面臨許多挑戰。
MentaLLaMA項目中的其他模型
除了MentalBART,MentaLLaMA項目還包括以下模型:
- MentaLLaMA-chat-13B:基於Meta LLaMA2-chat-13B基礎模型和完整的IMHI指令調優數據進行微調,訓練數據涵蓋10項心理健康分析任務。
- MentaLLaMA-chat-7B:基於Meta LLaMA2-chat-7B基礎模型和完整的IMHI指令調優數據進行微調,訓練數據涵蓋10項心理健康分析任務。
- MentalT5:基於T5-large基礎模型和完整的IMHI完成數據進行微調,訓練數據涵蓋10項心理健康分析任務。該模型不具備指令跟隨能力,但更輕量級,在基於完成的可解釋心理健康分析中表現良好。
引用信息
如果你在工作中使用了MentalBART,請引用我們的論文:
@misc{yang2023mentalllama,
title={MentalLLaMA: Interpretable Mental Health Analysis on Social Media with Large Language Models},
author={Kailai Yang and Tianlin Zhang and Ziyan Kuang and Qianqian Xie and Sophia Ananiadou},
year={2023},
eprint={2309.13567},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
📄 許可證
MentalBART採用MIT許可證。更多詳細信息,請參閱MIT文件。