L

Llama3 8B 1.58 100B Tokens

由HF1BitLLM開發
基於BitNet 1.58b架構微調的大型語言模型,基礎模型為Llama-3-8B-Instruct,採用極端量化技術
下載量 2,427
發布時間 : 9/10/2024

模型概述

Llama3-8B-1.58是一個採用1.58比特量化的高效大型語言模型,通過1000億token訓練優化,在保持性能的同時顯著降低計算資源需求

模型特點

極端量化技術
採用1.58比特量化架構,顯著降低模型存儲和計算需求
大規模訓練
經過1000億token的擴展訓練,性能接近半精度模型
高效推理
在保持良好性能的同時減少資源消耗

模型能力

文本生成
問答系統
邏輯推理

使用案例

教育
推理問答
解決多步推理問題,如跟蹤人物位置變化
能夠正確回答涉及多步位置變化的推理問題
研究
量化技術研究
探索極端量化條件下LLM的性能邊界
性能接近半精度模型
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase