L

Llama 3.1 8B ContinuedTraining2 FFT

由ericflo開發
基於Meta-Llama-3.1-8B架構的全參數微調大語言模型,專注於英語文本和Python代碼任務,採用多樣化數據混合訓練方法
下載量 30
發布時間 : 9/9/2024

模型概述

這是一個經過全參數微調的大語言模型,支持文本生成、代碼補全和指令跟隨任務,特別擅長處理Python代碼相關任務

模型特點

全參數微調
不同於LoRA方法,本版本更新所有模型參數以實現全面學習
多樣化數據混合
結合預訓練和指令數據集實現全面語言理解
中間填充訓練(FIM)
引入FIM任務增強上下文理解能力,特別適用於代碼補全
8-bit AdamW優化器
使用adamw_bnb_8bit實現內存高效訓練
Flash Attention 2
採用flash_attention_2加速訓練過程

模型能力

文本補全與生成
Python代碼補全
指令跟隨
上下文感知文本填充
逆向預測與指令回譯

使用案例

編程輔助
Python代碼補全
在給定部分代碼的情況下自動完成代碼編寫
提高開發效率,減少編碼錯誤
文本處理
文本填充
在給定文本前綴和後綴的情況下生成中間內容
增強文本連貫性和邏輯性
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase