D

Dialogled Base 16384

由MingZhong開發
DialogLM是基於Longformer-Encoder-Decoder(LED)架構的預訓練模型,專為長對話理解與摘要任務設計。
下載量 566
發布時間 : 3/2/2022

模型概述

DialogLM是一個面向長對話理解與摘要的預訓練模型,採用基於窗口的降噪任務作為預訓練目標,支持最長16,384個token的輸入序列。

模型特點

長對話支持
支持最長16,384個token的輸入序列,適合處理長對話場景。
基於窗口的降噪任務
採用基於窗口的降噪任務作為預訓練目標,提升模型對長對話的理解能力。
海量數據訓練
利用海量長對話數據進行深度訓練,增強模型的泛化能力。

模型能力

長對話理解
對話摘要生成

使用案例

對話系統
客服對話摘要
自動生成客服對話的摘要,幫助快速瞭解對話內容。
會議記錄摘要
對長時間會議對話進行摘要,提取關鍵信息。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase