Llama 3.2 Instruct 1B
L

Llama 3.2 Instruct 1B

Meta Llama 3.2 系列的超緊湊指令調優版本,僅 1B 參數但經過精心優化。專為邊緣裝置和資源受限環境設計,能夠在極小的記憶體佔用下提供可靠的指令執行能力。繼承了 Llama 系列的技術優勢,適合行動應用、IoT 裝置和需要本地部署的輕量級 AI 應用場景。
智能(弱)
速度(較快)
輸入支持模態
是否推理模型
128,000
上下文窗口
-
最大輸出tokens
-
知識截止

定價

- /M tokens
輸入
- /M tokens
輸出
¥0.38 /M tokens
混合價格

快速簡單對比

輸入

輸出

Llama 4 Scout
¥0.08
Llama 4 Maverick
¥0.17
Llama 3.3 Instruct 70B
¥0.2

基本參數

Llama 3.2 Instruct 1B技術參數
參數數量
未公布
上下文長度
128.00k tokens
訓練數據截止日期
開源類別
Open Weights (Permissive License)
多模態支持
僅文本
吞吐量
發布日期
2024-09-25
響應速度
153.05,164 tokens/s

基準測試分數

以下是Llama 3.2 Instruct 1B在各種標準基準測試中的表現。這些測試評估了模型在不同任務和領域中的能力。
智能指數
9.69
大語言模型智能水平
編程指數
1.82
AI模型在編程任務上的表現指標
數學指數
7
解決數學問題、數學推理或執行數學相關任務的能力指標
MMLU Pro
20
大規模多任務多模態理解 - 測試對文本、圖像、音頻和視頻的理解
GPQA
19.6
研究生物理問題評估 - 用鑽石科學級問題測試高級物理知識
HLE
5.3
模型在Hugging Face開放LLM排行榜上的綜合平均分數
LiveCodeBench
1.9
專門評估大型語言模型在實際代碼編寫和解決編程競賽問題能力的評估
SciCode
1.7
模型在科學計算或特定科學領域代碼生成方面的能力
HumanEval
40.2
AI模型在特定HumanEval基準測試集上獲得的分數
Math 500分數
14
在前500個較大、更知名的數學基準測試上的分數
AIME分數
-
衡量AI模型解決高難度數學競賽問題能力的指標(特指AIME級別)
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase