🚀 基於LUKE的日語情感分析模型
本模型基於預訓練模型進行微調,能夠精準分析文本中蘊含的情感傾向,為文本情感挖掘提供了強大的工具。
🚀 快速開始
此模型是對Luke-japanese-large-lite進行微調得到的。它能夠分析文章中包含了八種情感(喜悅、悲傷、期待、驚訝、憤怒、恐懼、厭惡、信任)中的哪一種。該模型使用了wrime數據集(https://huggingface.co/datasets/shunk031/wrime)進行訓練。
✨ 主要特性
- 多情感分析:可以分析文本中包含的八種不同情感。
- 基於優質預訓練模型:基於Luke-japanese-large-lite進行微調,具有良好的性能。
- 使用特定數據集訓練:使用wrime數據集進行訓練,更適合相關場景的情感分析。
📦 安裝指南
步驟1:安裝Python、PyTorch和SentencePiece,並更新Transformers庫
由於舊版本的Transformers庫可能不包含LukeTokenizer
,因此需要更新Transformers庫,並安裝Python、PyTorch和SentencePiece。
💻 使用示例
基礎用法
from transformers import AutoTokenizer, AutoModelForSequenceClassification, LukeConfig
import torch
tokenizer = AutoTokenizer.from_pretrained("Mizuiro-sakura/luke-japanese-large-sentiment-analysis-wrime")
config = LukeConfig.from_pretrained('Mizuiro-sakura/luke-japanese-large-sentiment-analysis-wrime', output_hidden_states=True)
model = AutoModelForSequenceClassification.from_pretrained('Mizuiro-sakura/luke-japanese-large-sentiment-analysis-wrime', config=config)
text='すごく楽しかった。また行きたい。'
max_seq_length=512
token=tokenizer(text,
truncation=True,
max_length=max_seq_length,
padding="max_length")
output=model(torch.tensor(token['input_ids']).unsqueeze(0), torch.tensor(token['attention_mask']).unsqueeze(0))
max_index=torch.argmax(torch.tensor(output.logits))
if max_index==0:
print('joy、うれしい')
elif max_index==1:
print('sadness、悲しい')
elif max_index==2:
print('anticipation、期待')
elif max_index==3:
print('surprise、驚き')
elif max_index==4:
print('anger、怒り')
elif max_index==5:
print('fear、恐れ')
elif max_index==6:
print('disgust、嫌悪')
elif max_index==7:
print('trust、信頼')
📚 詳細文檔
什麼是Luke?
LUKE(Language Understanding with Knowledge-based Embeddings)是一種基於Transformer的新型預訓練上下文詞和實體表示模型。LUKE將給定文本中的單詞和實體視為獨立的標記,並輸出它們的上下文表示。LUKE採用了一種實體感知的自注意力機制,這是Transformer自注意力機制的擴展,在計算注意力分數時會考慮標記的類型(單詞或實體)。
LUKE在五個流行的NLP基準測試中取得了最先進的結果,包括SQuAD v1.1(抽取式問答)、CoNLL-2003(命名實體識別)、ReCoRD(完形填空式問答)、TACRED(關係分類)和Open Entity(實體類型)。
luke-japanese是單詞和實體的知識增強型預訓練Transformer模型LUKE的日語版本。LUKE將單詞和實體視為獨立的標記,並輸出它們的上下文表示。
📄 許可證
本模型採用MIT許可證。
🔗 引用
[1]@inproceedings{yamada2020luke,
title={LUKE: Deep Contextualized Entity Representations with Entity-aware Self-attention},
author={Ikuya Yamada and Akari Asai and Hiroyuki Shindo and Hideaki Takeda and Yuji Matsumoto},
booktitle={EMNLP},
year={2020}
}
🙏 致謝
感謝Luke的開發者山田先生(@ikuyamada)和Studio ousia(@StudioOusia)。