🚀 基於方面的情感分析DeBERTa模型
本項目提供了一個用於基於方面的情感分析(Aspect-Based Sentiment Analysis, ABSA)的deberta-v3-large-absa
模型,該模型使用來自ABSADatasets的英文數據集進行訓練,能夠有效處理多種英文文本的情感分析任務。
🚀 快速開始
建議使用yangheng/deberta-v3-base-absa-v1.1,該模型體積更小且性能更優。此模型使用30k + ABSA樣本進行訓練,詳情見ABSADatasets。測試集不包含在預訓練中,因此可用於常見ABSA數據集(如Laptop14、Rest14數據集,但不包括Rest15數據集)的訓練和基準測試。
✨ 主要特性
- 多數據集訓練:使用了多個英文數據集進行微調,包括
laptop14
、restaurant14
、restaurant16
、ACL-Twitter
、MAMS
、Television
、TShirt
、Yelp
等。
- 性能優越:基於
microsoft/deberta-v3-large
和FAST - LCF - BERT模型訓練,性能表現出色。
- 易於使用:可以通過
transformers
庫方便地加載和使用。
📦 安裝指南
本項目依賴於transformers
庫,可使用以下命令進行安裝:
pip install transformers
💻 使用示例
基礎用法
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained("yangheng/deberta-v3-large-absa-v1.1")
model = AutoModelForSequenceClassification.from_pretrained("yangheng/deberta-v3-large-absa-v1.1")
高級用法
在PyASBA數據集上使用FAST - LCF - BERT的示例:train_apc_multilingual.py
📚 詳細文檔
模型信息
屬性 |
詳情 |
模型類型 |
用於基於方面的情感分析的deberta-v3-large-absa 模型 |
訓練數據 |
laptop14、restaurant14、restaurant16、ACL - Twitter、MAMS、Television、TShirt、Yelp等數據集 |
評估指標 |
準確率(accuracy)、宏F1值(macro - f1) |
數據集
該模型針對ABSA數據集使用180k個示例(包括增強數據)進行微調。訓練數據集文件如下:
loading: integrated_datasets/apc_datasets/SemEval/laptop14/Laptops_Train.xml.seg
loading: integrated_datasets/apc_datasets/SemEval/restaurant14/Restaurants_Train.xml.seg
loading: integrated_datasets/apc_datasets/SemEval/restaurant16/restaurant_train.raw
loading: integrated_datasets/apc_datasets/ACL_Twitter/acl-14-short-data/train.raw
loading: integrated_datasets/apc_datasets/MAMS/train.xml.dat
loading: integrated_datasets/apc_datasets/Television/Television_Train.xml.seg
loading: integrated_datasets/apc_datasets/TShirt/Menstshirt_Train.xml.seg
loading: integrated_datasets/apc_datasets/Yelp/yelp.train.txt
引用信息
如果您在研究中使用了此模型,請引用以下論文:
@article{YangZMT21,
author = {Heng Yang and
Biqing Zeng and
Mayi Xu and
Tianxing Wang},
title = {Back to Reality: Leveraging Pattern-driven Modeling to Enable Affordable
Sentiment Dependency Learning},
journal = {CoRR},
volume = {abs/2110.08604},
year = {2021},
url = {https://arxiv.org/abs/2110.08604},
eprinttype = {arXiv},
eprint = {2110.08604},
timestamp = {Fri, 22 Oct 2021 13:33:09 +0200},
biburl = {https://dblp.org/rec/journals/corr/abs-2110-08604.bib},
bibsource = {dblp computer science bibliography, https://dblp.org}
}
📄 許可證
本項目採用MIT許可證。