🚀 客戶評價分類模型
本項目基於DistilBERT微調得到的模型,可將客戶反饋精準分類為六個預定義類別,為客戶評價分析提供高效解決方案。
🚀 快速開始
以下是使用該模型進行推理的示例:
from transformers import pipeline
classifier = pipeline("text-classification", model="dnzblgn/Customer-Reviews-Classification")
result = classifier("The product arrived on time and was exactly as described.")
print(result)
✨ 主要特性
- 高效分類:基於DistilBERT的Transformer架構,能有效處理文本的句法模式,根據內容、風格和結構進行準確的文檔分類。
- 多類別覆蓋:可將客戶反饋分為六個預定義類別,包括運輸與交付、客戶服務、價格與價值、質量與性能、使用與設計以及其他。
📦 安裝指南
文檔未提及具體安裝步驟,可參考transformers
庫的官方安裝指南進行安裝。
💻 使用示例
基礎用法
from transformers import pipeline
classifier = pipeline("text-classification", model="dnzblgn/Customer-Reviews-Classification")
result = classifier("The product arrived on time and was exactly as described.")
print(result)
📚 詳細文檔
類別映射
label_mapping = {
"shipping_and_delivery": 0,
"customer_service": 1,
"price_and_value": 2,
"quality_and_performance": 3,
"use_and_design": 4,
"other": 5
}
模型描述
這個經過微調的DistilBERT模型專為文檔分類而設計。它將客戶反饋分為六個預定義類別:運輸與交付、客戶服務、價格與價值、質量與性能、使用與設計以及其他。通過利用DistilBERT基於Transformer的架構,該模型能有效處理文本的句法模式,根據內容、風格和結構提供準確的文檔分類。
屬性 |
詳情 |
模型類型 |
DistilBERT(針對文本分類進行微調) |
語言 |
英語 |
許可證 |
Apache 2.0 |
微調基礎模型 |
distilbert/distilbert-base-uncased |
偏差、風險和侷限性
雖然該模型在六個類別上實現了較高的準確率,但在處理重疊類別或單個文檔中的多個標籤時存在侷限性。該模型設計用於單標籤分類,即每個文檔只能檢測一個標籤。如果一個文檔包含多個類別的特徵(例如,同時包含“質量與性能”和“價格與價值”),模型可能難以正確識別兩者,只會預測一個類別,可能導致錯誤分類。
建議
用戶(直接用戶和下游用戶)應瞭解該模型的單標籤預測限制。在文檔包含多個類別特徵的情況下,應考慮使用其他模型或多標籤分類技術。
訓練數據
為該任務創建了一個自定義合成數據集,重點關注文本的結構特徵。該數據集提供了六個類別的示例,幫助模型從文本的句法組織和含義中學習。
訓練超參數
- 模型:distilbert/distilbert-base-uncased
- 學習率:3e-5
- 訓練輪數:7
- 訓練批次大小:16
- 梯度累積步數:2
- 權重衰減:0.015
- 預熱比例:0.1
評估
使用代表相同六個文檔類別的自定義數據集對模型進行評估。根據準確率、精確率、召回率和F1分數衡量模型在各個類別上的性能。
指標
- 準確率:0.947
- 精確率:0.948
- 召回率:0.948
- F1分數:0.948
如需訪問使用的合成數據集,請聯繫:[deniz.bilgin@uni-konstanz.de]。
🔧 技術細節
本模型基於DistilBERT進行微調,通過自定義合成數據集進行訓練,學習文本的句法組織和含義。在訓練過程中,使用了特定的超參數,如學習率、訓練輪數等,以優化模型性能。評估時,使用自定義數據集和多種指標來衡量模型的準確性和有效性。
📄 許可證
本模型使用Apache 2.0許可證。