Klue Bert Base Sentiment
韓語情感分類模型,能夠進行60種細分的情感分類,基於Aihub-감성대화말뭉치數據集微調klue/bert-base得到
下載量 2,807
發布時間 : 8/9/2023
模型概述
該模型是一個細粒度的韓語情感分類器,專門針對韓語文本進行60種不同情感的分類分析。
模型特點
細粒度分類
能夠識別60種細分情感,提供更詳細的情感分析結果
針對性訓練
使用Aihub-감성대화말뭉치韓語情感對話數據集進行專門訓練
優化微調
基於klue/bert-base模型進行微調優化,提升情感分類性能
模型能力
韓語文本情感分類
細粒度情感識別
多類別情感分析
使用案例
情感分析
社交媒體情感監測
分析韓語社交媒體內容中的用戶情感傾向
可識別60種不同情感狀態
客戶服務分析
評估客戶對話中的情感變化
幫助識別客戶不滿、焦慮等負面情緒
🚀 韓語情感分類模型
本項目是一個韓語情感分類模型,能夠進行60種細分的情感分類。它基於特定數據集進行訓練,通過對父模型進行微調得到,具有一定的應用價值。
🚀 快速開始
本模型可通過Hugging Face平臺使用,你可以按照以下步驟進行操作:
- 訪問模型頁面:hun3359/klue-bert-base-sentiment
- 按照平臺提供的使用說明進行調用。
✨ 主要特性
- 細粒度分類:能夠進行60種細分的情感分類,提供更詳細的情感分析結果。
- 基於特定數據集:使用Aihub-감성대화말뭉치數據集進行訓練,保證了模型的針對性和準確性。
- 微調優化:通過對父模型
klue/bert-base
進行微調,提升了模型的性能。
📦 安裝指南
暫未提供具體的安裝步驟,你可以參考Hugging Face平臺上的相關文檔進行安裝。
💻 使用示例
基礎用法
你可以使用以下代碼示例調用模型進行情感分類:
# 這裡需要根據實際情況補充調用模型的代碼
📚 詳細文檔
數據集信息
- 數據集名稱:Aihub-감성대화말뭉치
- 數據集URL:https://aihub.or.kr/aihubdata/data/view.do?currMenu=115&topMenu=100&aihubDataSe=realm&dataSetSn=86
模型信息
- 模型名稱:hun3359/klue-bert-base-sentiment
- 父模型名稱:klue/bert-base
- 父模型URL:https://huggingface.co/klue/bert-base
混淆矩陣
微調日誌
- distilbert-base-multilingual-cased進行5個epoch的微調 --> f1: 0.25 (2023.08.08)
- bongsoo/mdistilbertV3.1進行5個epoch的微調 --> f1: 0.26 (2023.08.09)
- klue/bert-base進行5個epoch的微調 --> 見以下結果 (2023.08.09)
微調結果
{
"test_loss": 2.8668248653411865,
"test_accuracy": 0.29371889480006863,
"test_f1": 0.29102037288558685,
"test_runtime": 50.8082,
"test_samples_per_second": 458.745,
"test_steps_per_second": 14.348
}
模型配置
{
"_name_or_path": "klue/bert-base",
"architectures": [
"BertForSequenceClassification"
],
"attention_probs_dropout_prob": 0.1,
"classifier_dropout": null,
"hidden_act": "gelu",
"hidden_dropout_prob": 0.1,
"hidden_size": 768,
"initializer_range": 0.02,
"intermediate_size": 3072,
"id2label":{
"0": "憤怒",
"1": "嘮叨",
"2": "沮喪",
"3": "煩躁",
"4": "防禦性的",
"5": "惡意的",
"6": "焦慮",
"7": "噁心",
"8": "惱火",
"9": "厭煩的",
"10": "悲傷",
"11": "失望",
"12": "悲痛",
"13": "後悔",
"14": "憂鬱",
"15": "麻木",
"16": "世俗的",
"17": "流淚的",
"18": "氣餒",
"19": "幻滅的",
"20": "不安",
"21": "害怕",
"22": "有壓力的",
"23": "脆弱的",
"24": "混亂的",
"25": "困惑的",
"26": "懷疑的",
"27": "擔憂的",
"28": "謹慎的",
"29": "急躁的",
"30": "傷害",
"31": "嫉妒",
"32": "被背叛",
"33": "孤立的",
"34": "震驚",
"35": "貧窮不幸的",
"36": "犧牲的",
"37": "冤枉的",
"38": "痛苦的",
"39": "被拋棄",
"40": "慌張",
"41": "孤立的(慌張的)",
"42": "在意他人目光的",
"43": "孤獨的",
"44": "自卑感",
"45": "罪惡感",
"46": "羞愧的",
"47": "厭惡的",
"48": "差勁的",
"49": "混亂的(慌張的)",
"50": "喜悅",
"51": "感激的",
"52": "信任的",
"53": "舒適的",
"54": "滿意的",
"55": "興奮",
"56": "悠閒",
"57": "安心",
"58": "興奮的",
"59": "自信的"
},
"label2id": {
"憤怒": 0,
"嘮叨": 1,
"沮喪": 2,
"煩躁": 3,
"防禦性的": 4,
"惡意的": 5,
"焦慮": 6,
"噁心": 7,
"惱火": 8,
"厭煩的": 9,
"悲傷": 10,
"失望": 11,
"悲痛": 12,
"後悔": 13,
"憂鬱": 14,
"麻木": 15,
"世俗的": 16,
"流淚的": 17,
"氣餒": 18,
"幻滅的": 19,
"不安": 20,
"害怕": 21,
"有壓力的": 22,
"脆弱的": 23,
"混亂的": 24,
"困惑的": 25,
"懷疑的": 26,
"擔憂的": 27,
"謹慎的": 28,
"急躁的": 29,
"傷害": 30,
"嫉妒": 31,
"被背叛": 32,
"孤立的": 33,
"震驚": 34,
"貧窮不幸的": 35,
"犧牲的": 36,
"冤枉的": 37,
"痛苦的": 38,
"被拋棄": 39,
"慌張": 40,
"孤立的(慌張的)": 41,
"在意他人目光的": 42,
"孤獨的": 43,
"自卑感": 44,
"罪惡感": 45,
"羞愧的": 46,
"厭惡的": 47,
"差勁的": 48,
"混亂的(慌張的)": 49,
"喜悅": 50,
"感激的": 51,
"信任的": 52,
"舒適的": 53,
"滿意的": 54,
"興奮": 55,
"悠閒": 56,
"安心": 57,
"興奮的": 58,
"自信的": 59
},
"layer_norm_eps": 1e-12,
"max_position_embeddings": 512,
"model_type": "bert",
"num_attention_heads": 12,
"num_hidden_layers": 12,
"pad_token_id": 0,
"position_embedding_type": "absolute",
"problem_type": "single_label_classification",
"torch_dtype": "float32",
"transformers_version": "4.30.2",
"type_vocab_size": 2,
"use_cache": true,
"vocab_size": 32000
}
🔧 技術細節
本模型基於BertForSequenceClassification
架構,通過對父模型klue/bert-base
進行微調得到。在微調過程中,使用了Aihub-감성대화말뭉치數據集,並進行了多個epoch的訓練,以提升模型的性能。
📄 許可證
本項目採用CC BY-SA 4.0許可證。你可以在遵循許可證的前提下使用和分發本模型。
Distilbert Base Uncased Finetuned Sst 2 English
Apache-2.0
基於DistilBERT-base-uncased在SST-2情感分析數據集上微調的文本分類模型,準確率91.3%
文本分類 英語
D
distilbert
5.2M
746
Xlm Roberta Base Language Detection
MIT
基於XLM-RoBERTa的多語言檢測模型,支持20種語言的文本分類
文本分類
Transformers 支持多種語言

X
papluca
2.7M
333
Roberta Hate Speech Dynabench R4 Target
該模型通過動態生成數據集來改進在線仇恨檢測,專注於從最差案例中學習以提高檢測效果。
文本分類
Transformers 英語

R
facebook
2.0M
80
Bert Base Multilingual Uncased Sentiment
MIT
基於bert-base-multilingual-uncased微調的多語言情感分析模型,支持6種語言的商品評論情感分析
文本分類 支持多種語言
B
nlptown
1.8M
371
Emotion English Distilroberta Base
基於DistilRoBERTa-base微調的英文文本情感分類模型,可預測埃克曼六種基本情緒及中性類別。
文本分類
Transformers 英語

E
j-hartmann
1.1M
402
Robertuito Sentiment Analysis
基於RoBERTuito的西班牙語推文情感分析模型,支持POS(積極)/NEG(消極)/NEU(中性)三類情感分類
文本分類 西班牙語
R
pysentimiento
1.0M
88
Finbert Tone
FinBERT是一款基於金融通訊文本預訓練的BERT模型,專注於金融自然語言處理領域。finbert-tone是其微調版本,用於金融情感分析任務。
文本分類
Transformers 英語

F
yiyanghkust
998.46k
178
Roberta Base Go Emotions
MIT
基於RoBERTa-base的多標籤情感分類模型,在go_emotions數據集上訓練,支持28種情感標籤識別。
文本分類
Transformers 英語

R
SamLowe
848.12k
565
Xlm Emo T
XLM-EMO是一個基於XLM-T模型微調的多語言情感分析模型,支持19種語言,專門針對社交媒體文本的情感預測。
文本分類
Transformers 其他

X
MilaNLProc
692.30k
7
Deberta V3 Base Mnli Fever Anli
MIT
基於MultiNLI、Fever-NLI和ANLI數據集訓練的DeBERTa-v3模型,擅長零樣本分類和自然語言推理任務
文本分類
Transformers 英語

D
MoritzLaurer
613.93k
204
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98