🚀 NikolayKozloff/Selene-1-Mini-Llama-3.1-8B-Q6_K-GGUF
本模型是使用llama.cpp,通過ggml.ai的GGUF-my-repo空間,從AtlaAI/Selene-1-Mini-Llama-3.1-8B
轉換為GGUF格式的。如需瞭解該模型的更多詳細信息,請參考原始模型卡片。
🚀 快速開始
✨ 主要特性
- 多語言支持:支持英語(en)、德語(de)、法語(fr)、意大利語(it)、葡萄牙語(pt)和西班牙語(es)。
- 文本生成:適用於文本生成任務。
- 相關標籤:包含llama、atla、evaluation、llm-as-a-judge、meta、conversational、lm-judge、llama-cpp、gguf-my-repo等標籤。
- 許可證:採用llama3.1許可證。
📦 安裝指南
通過brew安裝llama.cpp(適用於Mac和Linux):
brew install llama.cpp
💻 使用示例
基礎用法
CLI方式:
llama-cli --hf-repo NikolayKozloff/Selene-1-Mini-Llama-3.1-8B-Q6_K-GGUF --hf-file selene-1-mini-llama-3.1-8b-q6_k.gguf -p "The meaning to life and the universe is"
服務器方式:
llama-server --hf-repo NikolayKozloff/Selene-1-Mini-Llama-3.1-8B-Q6_K-GGUF --hf-file selene-1-mini-llama-3.1-8b-q6_k.gguf -c 2048
高級用法
你也可以直接通過Llama.cpp倉庫中列出的使用步驟來使用此檢查點。
步驟1:從GitHub克隆llama.cpp:
git clone https://github.com/ggerganov/llama.cpp
步驟2:進入llama.cpp文件夾,並使用LLAMA_CURL=1
標誌以及其他特定硬件標誌(例如,在Linux上使用Nvidia GPU時使用LLAMA_CUDA=1
)進行編譯:
cd llama.cpp && LLAMA_CURL=1 make
步驟3:通過主二進制文件運行推理:
./llama-cli --hf-repo NikolayKozloff/Selene-1-Mini-Llama-3.1-8B-Q6_K-GGUF --hf-file selene-1-mini-llama-3.1-8b-q6_k.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo NikolayKozloff/Selene-1-Mini-Llama-3.1-8B-Q6_K-GGUF --hf-file selene-1-mini-llama-3.1-8b-q6_k.gguf -c 2048
📚 詳細文檔
屬性 |
詳情 |
基礎模型 |
AtlaAI/Selene-1-Mini-Llama-3.1-8B |
庫名稱 |
transformers |
支持語言 |
英語(en)、德語(de)、法語(fr)、意大利語(it)、葡萄牙語(pt)、西班牙語(es) |
任務類型 |
文本生成 |
標籤 |
llama、atla、evaluation、llm-as-a-judge、meta、conversational、lm-judge、llama-cpp、gguf-my-repo |
許可證 |
llama3.1 |