🚀 AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF
SenecaLLM是一個專注於網絡安全領域的大語言模型,經過近一個月(約100小時)的訓練和微調,旨在像網絡安全專家一樣思考,為用戶解答網絡安全相關問題,同時防止惡意使用。

該模型由Alican Kiraz微調。

相關鏈接:
- 博客:https://alican-kiraz1.medium.com/
- 領英:https://tr.linkedin.com/in/alican-kiraz
- X:https://x.com/AlicanKiraz0
- YouTube:https://youtube.com/@alicankiraz0
🚀 快速開始
SenecaLLM經過近一個月(約100小時)的訓練和微調,使用了1x4090、8x4090和3xH100等多種系統,專注於以下網絡安全主題。其目標是像網絡安全專家一樣思考,為你的問題提供幫助。同時,它也經過了微調,以防止惡意使用。
該模型不追求任何利潤。
隨著時間的推移,它將在以下領域實現專業化:
- 事件響應
- 威脅狩獵
- 代碼分析
- 漏洞開發
- 逆向工程
- 惡意軟件分析
“那些照亮他人的人,自己不會陷入黑暗……”
📦 安裝指南
此模型是通過llama.cpp,利用ggml.ai的GGUF-my-repo空間,從AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity
轉換為GGUF格式的。有關該模型的更多詳細信息,請參考原始模型卡片。
使用Homebrew安裝llama.cpp(適用於Mac和Linux)
brew install llama.cpp
調用llama.cpp服務器或命令行界面(CLI)
CLI方式:
llama-cli --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q8_0.gguf -p "The meaning to life and the universe is"
服務器方式:
llama-server --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q8_0.gguf -c 2048
注意:你也可以直接通過Llama.cpp倉庫中列出的使用步驟使用此檢查點。
步驟1:從GitHub克隆llama.cpp。
git clone https://github.com/ggerganov/llama.cpp
步驟2:進入llama.cpp文件夾,並使用LLAMA_CURL=1
標誌以及其他特定硬件標誌(例如,在Linux上使用Nvidia GPU時使用LLAMA_CUDA=1
)進行編譯。
cd llama.cpp && LLAMA_CURL=1 make
步驟3:通過主二進制文件運行推理。
./llama-cli --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q8_0.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo AlicanKiraz0/SenecaLLM_x_Qwen2.5-7B-CyberSecurity-Q8_0-GGUF --hf-file senecallm_x_qwen2.5-7b-cybersecurity-q8_0.gguf -c 2048
📄 許可證
本項目採用MIT許可證。