Chat Summarization
C
Chat Summarization
由dnzblgn開發
這是一個基於T5-base架構,使用LoRA技術微調的對話摘要模型,專為高效生成對話摘要而設計。
下載量 15
發布時間 : 10/8/2024
模型概述
該模型通過低秩自適應(LoRA)技術對T5-base進行微調,專注於對話摘要任務,適用於客戶服務、即時通訊和內容創作等多種場景。
模型特點
高效參數微調
採用低秩自適應(LoRA)技術,顯著減少訓練參數,提升訓練效率。
高質量摘要生成
在samsum數據集上微調,能夠生成準確且連貫的對話摘要。
計算資源優化
支持混合精度訓練,適合在單GPU環境下運行,降低硬件需求。
模型能力
對話摘要生成
文本壓縮
信息提取
使用案例
客戶服務
聊天記錄摘要
彙總客戶服務聊天記錄,用於質量監控或員工培訓。
提升服務評估效率,減少人工審核時間。
即時通訊
對話摘要生成
為用戶生成即時通訊對話的摘要,幫助快速回顧重要內容。
提升用戶體驗,節省閱讀時間。
內容創作
角色對話摘要
輔助寫作者通過摘要角色對話來梳理劇情或對話內容。
提高創作效率,保持劇情連貫性。
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98