L

Longalpaca 7b 32k Chinese

由yuyijiong開發
基於Llama2的中文長文本對話模型,支持32k上下文長度,適用於長文本問答、總結等任務
下載量 32
發布時間 : 10/25/2023

模型概述

採用LongLora訓練技術對llama2-chat模型進行位置插值後微調,具備優秀的長文本處理能力,支持萬字級多文檔檢索和論文總結

模型特點

超長上下文處理
通過位置插值技術將上下文窗口擴展至32k tokens,可處理萬字級長文本
中文優化
使用中文長指令數據集微調,特別優化中文長文本處理能力
多文檔問答
支持同時處理多個參考文檔並生成綜合回答
流式生成支持
兼容streaming-LLM,可生成超長文本內容

模型能力

長文本問答
多文檔信息整合
學術論文總結
中文對話生成
長文本指令理解

使用案例

學術研究
論文總結
對長篇學術論文進行要點總結
在vcsum數據集上rouge-L得分0.15166
信息檢索
多文檔問答
從多個相關文檔中提取信息回答複雜問題
在dureader數據集上rouge-L得分0.18369
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase