7

7B

由CausalLM開發
一個7B參數的因果語言模型,兼容Meta LLaMA 2架構,在多項評估中表現優於同類33B以下模型
下載量 177
發布時間 : 10/22/2023

模型概述

基於Qwen和LLaMA2權重訓練的因果語言模型,支持中英文文本生成任務,採用與LLaMA2相同的模型架構

模型特點

高性能表現
在MMLU、CEval和GSM8K等基準測試中超越同類7B模型,部分指標優於33B以下模型
多語言支持
同時支持英文和中文文本生成
完全兼容性
兼容GGUF、GPTQ和AWQ量化格式,可直接使用transformers庫加載
合成數據訓練
使用13億標記的精選SFT數據集,所有數據均經過人工或合成重寫

模型能力

文本生成
多輪對話
數學推理
知識問答

使用案例

對話系統
智能助手
構建基於chatml格式的多輪對話系統
教育
數學問題解答
解決GSM8K級別的數學問題
零樣本準確率59.2%
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase