🚀 lukasfast/Teuken-7B-instruct-research-v0.4-Q6_K-GGUF
本模型是使用llama.cpp,通過ggml.ai的GGUF-my-repo空間,從openGPT-X/Teuken-7B-instruct-research-v0.4
轉換為GGUF格式的。有關該模型的更多詳細信息,請參考原始模型卡片。
🚀 快速開始
本模型支持多種語言和評估指標,以下是詳細信息:
屬性 |
詳情 |
支持語言 |
de、bg、cs、da、el、en、es、et、fi、fr、ga、hr、hu、it、lt、lv、mt、nl、pl、pt、ro、sl、sv、sk |
評估指標 |
accuracy、bleu |
任務類型 |
文本生成 |
庫名稱 |
transformers |
基礎模型 |
openGPT-X/Teuken-7B-instruct-research-v0.4 |
許可證 |
other |
標籤 |
llama-cpp、gguf-my-repo |
📦 安裝指南
使用brew安裝llama.cpp(適用於Mac和Linux)
brew install llama.cpp
💻 使用示例
使用llama.cpp的CLI進行推理
llama-cli --hf-repo lukasfast/Teuken-7B-instruct-research-v0.4-Q6_K-GGUF --hf-file teuken-7b-instruct-research-v0.4-q6_k.gguf -p "The meaning to life and the universe is"
使用llama.cpp的服務器進行推理
llama-server --hf-repo lukasfast/Teuken-7B-instruct-research-v0.4-Q6_K-GGUF --hf-file teuken-7b-instruct-research-v0.4-q6_k.gguf -c 2048
直接使用Llama.cpp倉庫中的步驟進行推理
步驟1:從GitHub克隆llama.cpp倉庫
git clone https://github.com/ggerganov/llama.cpp
步驟2:進入llama.cpp文件夾並使用LLAMA_CURL=1
標誌以及其他特定硬件標誌進行編譯(例如,在Linux上使用Nvidia GPU時使用LLAMA_CUDA=1
)
cd llama.cpp && LLAMA_CURL=1 make
步驟3:通過主二進制文件運行推理
./llama-cli --hf-repo lukasfast/Teuken-7B-instruct-research-v0.4-Q6_K-GGUF --hf-file teuken-7b-instruct-research-v0.4-q6_k.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo lukasfast/Teuken-7B-instruct-research-v0.4-Q6_K-GGUF --hf-file teuken-7b-instruct-research-v0.4-q6_k.gguf -c 2048
⚠️ 重要提示
你也可以直接通過Llama.cpp倉庫中列出的使用步驟使用此檢查點。
📄 許可證
本模型使用的許可證為other。