L

Llama 2 7B 32K

由togethercomputer開發
基於Meta原版Llama-2 7B模型微調的開源長上下文語言模型,支持32K上下文長度
下載量 5,411
發布時間 : 7/26/2023

模型概述

LLaMA-2-7B-32K是由Together開發的開源長上下文語言模型,通過位置插值技術擴展上下文長度至32K,適用於多文檔問答、長文本摘要等任務。

模型特點

擴展上下文
模型經過訓練可處理長達32K的上下文,較先前版本有顯著提升。
預訓練與指令調優
公開了數據配方,包含預訓練與指令調優數據的混合。
微調示例
提供了針對特定應用的微調示例,包括書籍摘要和長上下文問答。
軟件支持
更新了推理和訓練框架,支持32K上下文的高效推理與微調。

模型能力

長文本生成
多文檔問答
長文本摘要
指令跟隨

使用案例

學術研究
多文檔問答
從多篇維基百科文檔片段中識別並利用正確答案文檔。
內容生成
書籍摘要
針對長篇敘事摘要任務,生成小說、戲劇等文學作品的章節級摘要。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase