T

Tinyllama 1.1B 32k

由Doctor-Shotgun開發
基於TinyLlama-1.1B的32k上下文微調版本,通過增大rope theta實現長上下文處理能力
下載量 51
發布時間 : 12/29/2023

模型概述

這是一個針對長上下文優化的語言模型,通過調整rope頻率基數實現32k上下文長度支持,適合作為推測解碼模型使用

模型特點

長上下文支持
通過調整rope theta參數支持32k上下文長度
高效推理
量化版本可在單張A6000顯卡上運行,適合推測解碼
優化預訓練
在RedPajama-Data-1T-Sample數據集上進行了32k上下文長度的預訓練

模型能力

長文本生成
代碼生成
文本理解

使用案例

代碼生成
編程輔助
用於生成和補全代碼
HumanEval評估顯示Pass@1達到0.0829
長文本處理
長文檔分析
處理長達32k token的文本內容
在32768長度下困惑度7.1338
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase