🚀 基于方面的情感分析DeBERTa模型
本项目提供了一个用于基于方面的情感分析(Aspect-Based Sentiment Analysis, ABSA)的deberta-v3-large-absa
模型,该模型使用来自ABSADatasets的英文数据集进行训练,能够有效处理多种英文文本的情感分析任务。
🚀 快速开始
建议使用yangheng/deberta-v3-base-absa-v1.1,该模型体积更小且性能更优。此模型使用30k + ABSA样本进行训练,详情见ABSADatasets。测试集不包含在预训练中,因此可用于常见ABSA数据集(如Laptop14、Rest14数据集,但不包括Rest15数据集)的训练和基准测试。
✨ 主要特性
- 多数据集训练:使用了多个英文数据集进行微调,包括
laptop14
、restaurant14
、restaurant16
、ACL-Twitter
、MAMS
、Television
、TShirt
、Yelp
等。
- 性能优越:基于
microsoft/deberta-v3-large
和FAST - LCF - BERT模型训练,性能表现出色。
- 易于使用:可以通过
transformers
库方便地加载和使用。
📦 安装指南
本项目依赖于transformers
库,可使用以下命令进行安装:
pip install transformers
💻 使用示例
基础用法
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained("yangheng/deberta-v3-large-absa-v1.1")
model = AutoModelForSequenceClassification.from_pretrained("yangheng/deberta-v3-large-absa-v1.1")
高级用法
在PyASBA数据集上使用FAST - LCF - BERT的示例:train_apc_multilingual.py
📚 详细文档
模型信息
属性 |
详情 |
模型类型 |
用于基于方面的情感分析的deberta-v3-large-absa 模型 |
训练数据 |
laptop14、restaurant14、restaurant16、ACL - Twitter、MAMS、Television、TShirt、Yelp等数据集 |
评估指标 |
准确率(accuracy)、宏F1值(macro - f1) |
数据集
该模型针对ABSA数据集使用180k个示例(包括增强数据)进行微调。训练数据集文件如下:
loading: integrated_datasets/apc_datasets/SemEval/laptop14/Laptops_Train.xml.seg
loading: integrated_datasets/apc_datasets/SemEval/restaurant14/Restaurants_Train.xml.seg
loading: integrated_datasets/apc_datasets/SemEval/restaurant16/restaurant_train.raw
loading: integrated_datasets/apc_datasets/ACL_Twitter/acl-14-short-data/train.raw
loading: integrated_datasets/apc_datasets/MAMS/train.xml.dat
loading: integrated_datasets/apc_datasets/Television/Television_Train.xml.seg
loading: integrated_datasets/apc_datasets/TShirt/Menstshirt_Train.xml.seg
loading: integrated_datasets/apc_datasets/Yelp/yelp.train.txt
引用信息
如果您在研究中使用了此模型,请引用以下论文:
@article{YangZMT21,
author = {Heng Yang and
Biqing Zeng and
Mayi Xu and
Tianxing Wang},
title = {Back to Reality: Leveraging Pattern-driven Modeling to Enable Affordable
Sentiment Dependency Learning},
journal = {CoRR},
volume = {abs/2110.08604},
year = {2021},
url = {https://arxiv.org/abs/2110.08604},
eprinttype = {arXiv},
eprint = {2110.08604},
timestamp = {Fri, 22 Oct 2021 13:33:09 +0200},
biburl = {https://dblp.org/rec/journals/corr/abs-2110-08604.bib},
bibsource = {dblp computer science bibliography, https://dblp.org}
}
📄 许可证
本项目采用MIT许可证。