🚀 lukasfast/Teuken-7B-instruct-research-v0.4-Q6_K-GGUF
本模型是使用llama.cpp,通过ggml.ai的GGUF-my-repo空间,从openGPT-X/Teuken-7B-instruct-research-v0.4
转换为GGUF格式的。有关该模型的更多详细信息,请参考原始模型卡片。
🚀 快速开始
本模型支持多种语言和评估指标,以下是详细信息:
属性 |
详情 |
支持语言 |
de、bg、cs、da、el、en、es、et、fi、fr、ga、hr、hu、it、lt、lv、mt、nl、pl、pt、ro、sl、sv、sk |
评估指标 |
accuracy、bleu |
任务类型 |
文本生成 |
库名称 |
transformers |
基础模型 |
openGPT-X/Teuken-7B-instruct-research-v0.4 |
许可证 |
other |
标签 |
llama-cpp、gguf-my-repo |
📦 安装指南
使用brew安装llama.cpp(适用于Mac和Linux)
brew install llama.cpp
💻 使用示例
使用llama.cpp的CLI进行推理
llama-cli --hf-repo lukasfast/Teuken-7B-instruct-research-v0.4-Q6_K-GGUF --hf-file teuken-7b-instruct-research-v0.4-q6_k.gguf -p "The meaning to life and the universe is"
使用llama.cpp的服务器进行推理
llama-server --hf-repo lukasfast/Teuken-7B-instruct-research-v0.4-Q6_K-GGUF --hf-file teuken-7b-instruct-research-v0.4-q6_k.gguf -c 2048
直接使用Llama.cpp仓库中的步骤进行推理
步骤1:从GitHub克隆llama.cpp仓库
git clone https://github.com/ggerganov/llama.cpp
步骤2:进入llama.cpp文件夹并使用LLAMA_CURL=1
标志以及其他特定硬件标志进行编译(例如,在Linux上使用Nvidia GPU时使用LLAMA_CUDA=1
)
cd llama.cpp && LLAMA_CURL=1 make
步骤3:通过主二进制文件运行推理
./llama-cli --hf-repo lukasfast/Teuken-7B-instruct-research-v0.4-Q6_K-GGUF --hf-file teuken-7b-instruct-research-v0.4-q6_k.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo lukasfast/Teuken-7B-instruct-research-v0.4-Q6_K-GGUF --hf-file teuken-7b-instruct-research-v0.4-q6_k.gguf -c 2048
⚠️ 重要提示
你也可以直接通过Llama.cpp仓库中列出的使用步骤使用此检查点。
📄 许可证
本模型使用的许可证为other。