🚀 AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q2_K-GGUF
SenecaLLM是一個專注於網絡安全領域的模型,經過近一個月(約100小時)的訓練和微調,使用瞭如1x4090、8x4090和3xH100等多種系統。它旨在像網絡安全專家一樣思考,為用戶解答相關問題,同時經過微調以防止惡意使用,且不追求任何盈利。

由Alican Kiraz微調

相關鏈接:
- Medium: https://alican-kiraz1.medium.com/
- Linkedin: https://tr.linkedin.com/in/alican-kiraz
- X: https://x.com/AlicanKiraz0
- YouTube: https://youtube.com/@alicankiraz0
🚀 快速開始
此模型是從 AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity
通過llama.cpp並藉助ggml.ai的 GGUF-my-repo 空間轉換為GGUF格式的。更多模型詳情請參考 原始模型卡片。
✨ 主要特性
隨著時間推移,該模型將在以下領域實現專業化:
- 事件響應
- 威脅狩獵
- 代碼分析
- 漏洞利用開發
- 逆向工程
- 惡意軟件分析
📦 安裝指南
通過brew(適用於Mac和Linux)安裝llama.cpp:
brew install llama.cpp
💻 使用示例
基礎用法
CLI方式:
llama-cli --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q2_K-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q2_k.gguf -p "The meaning to life and the universe is"
服務器方式:
llama-server --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q2_K-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q2_k.gguf -c 2048
高級用法
你也可以直接通過Llama.cpp倉庫中列出的 使用步驟 使用此檢查點:
步驟1:從GitHub克隆llama.cpp:
git clone https://github.com/ggerganov/llama.cpp
步驟2:進入llama.cpp文件夾並使用LLAMA_CURL=1
標誌以及其他特定硬件標誌(例如,在Linux上使用Nvidia GPU時使用LLAMA_CUDA=1
)進行編譯:
cd llama.cpp && LLAMA_CURL=1 make
步驟3:通過主二進制文件運行推理:
./llama-cli --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q2_K-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q2_k.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q2_K-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q2_k.gguf -c 2048
📄 許可證
本項目採用MIT許可證。