L

Llama 3 8B Instruct 64k

由MaziyarPanahi開發
基於 winglian/Llama-3-8b-64k-PoSE 開發的 8B 參數大語言模型,採用 PoSE 技術擴展上下文長度至 64k,並經過 DPO 微調優化
下載量 91
發布時間 : 4/25/2024

模型概述

這是一個基於 Meta Llama-3 架構的 8B 參數大語言模型,通過 PoSE 技術將上下文長度擴展至 64k,並經過 DPO 微調優化,適用於長文本生成和對話任務。

模型特點

64k 長上下文支持
採用 PoSE 技術將上下文長度從 8k 擴展至 64k,適合處理長文檔和複雜對話
DPO 微調優化
使用 Intel/orca_dpo_pairs 數據集進行 DPO 微調,提升模型響應質量
高效推理
支持 flash_attention_2 和 bfloat16 推理,提高推理效率

模型能力

長文本生成
對話系統
指令跟隨

使用案例

對話系統
角色扮演聊天機器人
可用於構建具有特定角色特徵的聊天機器人,如示例中的海盜聊天機器人
能夠生成符合角色設定的連貫對話
長文檔處理
長文檔摘要
利用 64k 上下文長度優勢處理長文檔並生成摘要
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase