🚀 [MaziyarPanahi/Meta-Llama-3.1-405B-Instruct-GGUF]
本項目提供了 meta-llama/Meta-Llama-3.1-405B-Instruct 模型的 GGUF 格式文件,可用於文本生成任務。
🚀 快速開始
模型信息
示例運行
以下是使用 llama.cpp/llama-cli
運行模型的示例命令:
llama.cpp/llama-cli -m Meta-Llama-3.1-405B-Instruct.Q2_K.gguf-00001-of-00009.gguf -p "write 10 sentences ending with the word apple." -n 1024 -t 40
運行結果如下:
system_info: n_threads = 40 / 80 | AVX = 1 | AVX_VNNI = 0 | AVX2 = 1 | AVX512 = 0 | AVX512_VBMI = 0 | AVX512_VNNI = 0 | AVX512_BF16 = 0 | FMA = 1 | NEON = 0 | SVE = 0 | ARM_FMA = 0 | F16C = 1 | FP16_VA = 0 | WASM_SIMD = 0 | BLAS = 0 | SSE3 = 1 | SSSE3 = 1 | VSX = 0 | MATMUL_INT8 = 0 | LLAMAFILE = 1 |
sampling:
repeat_last_n = 64, repeat_penalty = 1.000, frequency_penalty = 0.000, presence_penalty = 0.000
top_k = 40, tfs_z = 1.000, top_p = 0.950, min_p = 0.050, typical_p = 1.000, temp = 0.800
mirostat = 0, mirostat_lr = 0.100, mirostat_ent = 5.000
sampling order:
CFG -> Penalties -> top_k -> tfs_z -> typical_p -> top_p -> min_p -> temperature
generate: n_ctx = 131072, n_batch = 2048, n_predict = 1024, n_keep = 1
write 10 sentences ending with the word apple.
1. I love to eat a crunchy, juicy apple.
2. The teacher gave the student a shiny, red apple.
3. The farmer plucked a ripe, delicious apple.
4. My favorite snack is a sweet, tasty apple.
5. The child picked a fresh, green apple.
6. The cafeteria served a healthy, sliced apple.
7. The vendor sold a crisp, autumn apple.
8. The artist painted a still life with a golden apple.
9. The baby took a big bite of a soft, mealy apple.
10. The family enjoyed a basket of fresh, orchard apple. [end of text]
llama_print_timings: load time = 1068588.13 ms
llama_print_timings: sample time = 2262.60 ms / 136 runs ( 16.64 ms per token, 60.11 tokens per second)
llama_print_timings: prompt eval time = 339484.02 ms / 11 tokens (30862.18 ms per token, 0.03 tokens per second)
llama_print_timings: eval time = 33458013.45 ms / 135 runs (247837.14 ms per token, 0.00 tokens per second)
llama_print_timings: total time = 33800561.08 ms / 146 tokens
Log end
💻 使用示例
基礎用法
llama.cpp/llama-cli -m Meta-Llama-3.1-405B-Instruct.Q2_K.gguf-00001-of-00009.gguf -p "write 10 sentences ending with the word apple." -n 1024 -t 40
高級用法
可根據實際需求調整命令中的參數,如 n_predict
(預測的 token 數量)、n_threads
(線程數)等,以滿足不同的應用場景。
📚 詳細文檔
關於 GGUF
GGUF 是由 llama.cpp 團隊在 2023 年 8 月 21 日引入的一種新格式,它是 GGML 的替代方案,目前 llama.cpp 已不再支持 GGML 格式。
以下是已知支持 GGUF 格式的客戶端和庫:
- llama.cpp:GGUF 的源項目,提供了 CLI 和服務器選項。
- llama-cpp-python:一個支持 GPU 加速、LangChain 和 OpenAI 兼容 API 服務器的 Python 庫。
- LM Studio:一個易於使用且功能強大的本地 GUI,支持 Windows 和 macOS(Silicon),並提供 GPU 加速。截至 2023 年 11 月 27 日,Linux 版本處於測試階段。
- text-generation-webui:最廣泛使用的 Web UI,具有許多功能和強大的擴展,支持 GPU 加速。
- KoboldCpp:一個功能齊全的 Web UI,支持所有平臺和 GPU 架構的 GPU 加速,尤其適合故事創作。
- GPT4All:一個免費開源的本地運行 GUI,支持 Windows、Linux 和 macOS,並提供全 GPU 加速。
- LoLLMS Web UI:一個具有許多有趣和獨特功能的 Web UI,包括一個完整的模型庫,方便模型選擇。
- Faraday.dev:一個美觀且易於使用的基於角色的聊天 GUI,支持 Windows 和 macOS(Silicon 和 Intel),並提供 GPU 加速。
- candle:一個專注於性能的 Rust ML 框架,支持 GPU 並易於使用。
- ctransformers:一個支持 GPU 加速、LangChain 和 OpenAI 兼容 AI 服務器的 Python 庫。截至 2023 年 11 月 27 日,ctransformers 已有很長時間未更新,不支持許多最新模型。
📄 許可證
本模型使用的許可證為 llama3.1。
🔖 其他信息
支持語言
- 英語(en)
- 德語(de)
- 法語(fr)
- 意大利語(it)
- 葡萄牙語(pt)
- 印地語(hi)
- 西班牙語(es)
- 泰語(th)
標籤
- 量化(quantized)
- 2 位(2-bit)
- 3 位(3-bit)
- GGUF
- 文本生成(text-generation)
🌟 特別感謝
特別感謝 Georgi Gerganov 以及整個 llama.cpp 團隊,是他們讓這一切成為可能。