T

Tinyllama 1.1B Chat V0.4 GGUF

由afrideva開發
TinyLlama-1.1B是一個緊湊型大語言模型,參數規模為11億,基於Llama 2架構,專為計算和內存受限場景優化。
下載量 65
發布時間 : 11/16/2023

模型概述

這是一個經過微調的聊天模型,基於TinyLlama-1.1B在3萬億token上預訓練,使用OpenAssistant數據集進行微調,遵循chatml格式。

模型特點

緊湊高效
僅1.1B參數的小型模型,適合資源受限環境
快速訓練
使用16塊A100-40G GPU可在90天內完成3萬億token的預訓練
兼容性強
採用與Llama 2相同的架構和分詞器,可即插即用到Llama生態項目
聊天優化
使用OpenAssistant數據集微調,專為對話場景優化

模型能力

文本生成
對話交互
英文理解與生成

使用案例

聊天應用
智能助手
構建輕量級對話助手
能夠生成連貫、相關的對話回覆
教育
學習輔導
幫助學生解答學習相關問題
提供教育相關問題的合理回答
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase