🚀 AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF
SenecaLLM是一個專注於網絡安全領域的模型,經過近一個月(約100小時)的訓練和微調。它使用瞭如1x4090、8x4090和3xH100等多種系統進行訓練,旨在像網絡安全專家一樣思考,為你解答相關問題,並且經過微調以防止惡意使用。該模型不追求任何盈利,未來將在事件響應、威脅狩獵等多個網絡安全領域進行專業化發展。
🚀 快速開始
模型信息
屬性 |
詳情 |
模型類型 |
文本分類 |
基礎模型 |
Qwen/Qwen2.5-Coder-7B-Instruct |
許可證 |
MIT |
標籤 |
gguf-my-repo、pentest、cybersecurity、ethicalhacking、informationsecurity |
模型作者信息
此模型由Alican Kiraz進行微調。你可以通過以下鏈接關注作者:
模型轉換說明
本模型通過llama.cpp,利用ggml.ai的GGUF-my-repo空間,從AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity
轉換為GGUF格式。更多模型詳情請參考原始模型卡片。
模型圖片

📦 安裝指南
使用brew安裝llama.cpp(適用於Mac和Linux)
brew install llama.cpp
💻 使用示例
基礎用法
使用CLI調用
llama-cli --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q8_0.gguf -p "The meaning to life and the universe is"
使用Server調用
llama-server --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q8_0.gguf -c 2048
高級用法
你也可以直接通過Llama.cpp倉庫中列出的使用步驟來使用此模型:
步驟1:從GitHub克隆llama.cpp
git clone https://github.com/ggerganov/llama.cpp
步驟2:進入llama.cpp文件夾並使用LLAMA_CURL=1
標誌以及其他特定硬件標誌進行編譯(例如,在Linux上使用Nvidia GPU時使用LLAMA_CUDA=1
)
cd llama.cpp && LLAMA_CURL=1 make
步驟3:通過主二進制文件運行推理
./llama-cli --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q8_0.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q8_0.gguf -c 2048
✨ 主要特性
- 專注安全領域:經過專門訓練和微調,專注於多個網絡安全主題,能夠像網絡安全專家一樣思考並解答問題。
- 防止惡意使用:經過微調以防止模型被用於惡意目的。
- 多系統訓練:使用多種系統(如1x4090、8x4090和3xH100)進行訓練,保證模型的性能。
- 未來專業化發展:未來將在事件響應、威脅狩獵等多個網絡安全領域進行專業化發展。
📄 許可證
本模型使用MIT許可證。