🚀 WhiteRabbitNeo-2.5-Qwen-2.5-Coder-7B
WhiteRabbitNeo 是一個可用於攻防網絡安全的模型系列。目前,我們的模型以公開預覽的形式發佈,旨在展示其能力並評估此類人工智能對社會的影響。
🚀 快速開始
我們的最新模型已在我們的 Web 應用程序和 Kindo.ai 上上線!點擊鏈接訪問:https://www.whiterabbitneo.com/
加入我們的 Discord 服務器:https://discord.gg/8Ynkrcbk92 (12 月 29 日更新,現為永久加入鏈接)
✨ 主要特性
- 多功能性:可用於攻防網絡安全領域。
- 公開預覽:以公開預覽形式發佈,便於評估社會影響。
📦 安裝指南
暫未提供安裝步驟相關內容。
💻 使用示例
基礎用法
ChatML 提示格式使用示例如下:
import torch, json
from transformers import AutoModelForCausalLM, AutoTokenizer
model_path = "WhiteRabbitNeo/WhiteRabbitNeo-2.5-Qwen-2.5-Coder-7B"
output_file_path = "/home/user/conversations.jsonl"
model = AutoModelForCausalLM.from_pretrained(
model_path,
torch_dtype=torch.float16,
device_map="auto",
load_in_4bit=False,
trust_remote_code=False,
)
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
def generate_text(instruction):
tokens = tokenizer.encode(instruction)
tokens = torch.LongTensor(tokens).unsqueeze(0)
tokens = tokens.to("cuda")
instance = {
"input_ids": tokens,
"top_p": 1.0,
"temperature": 0.75,
"generate_len": 2048,
"top_k": 50,
}
length = len(tokens[0])
with torch.no_grad():
rest = model.generate(
input_ids=tokens,
max_length=length + instance["generate_len"],
use_cache=True,
do_sample=True,
top_p=instance["top_p"],
temperature=instance["temperature"],
top_k=instance["top_k"],
num_return_sequences=1,
pad_token_id=tokenizer.eos_token_id,
)
output = rest[0][length:]
string = tokenizer.decode(output, skip_special_tokens=True)
return f"{string}"
conversation = f"""<|im_start|>system\nYou are an AI that code. Please answer with code, and make sure to format with codeblocks using ```python and ```.<|im_end|>\n<|im_start|>user\n"""
while True:
user_input = input("You: ")
llm_prompt = f"{conversation}{user_input}<|im_end|>\n<|im_start|>assistant\nSure! Let me provide a complete and a thorough answer to your question, with functional and production ready code.\n"
answer = generate_text(llm_prompt)
print(answer)
conversation = f"{llm_prompt}{answer}<|im_end|>\n<|im_start|>user\n"
高級用法
如果運行時遇到任何拒絕情況,請按以下方式進行生成:
llm_prompt = f"{conversation}{user_input}<|im_end|>\n<|im_start|>assistant\nSure! Let me provide a complete and a thorough answer to your question, with functional and production ready code.\n"
示例代碼也已更新。
📚 詳細文檔
涵蓋主題
- 開放端口:識別開放端口至關重要,因為它們可能是攻擊者的入口點。常見要檢查的端口包括 HTTP(80、443)、FTP(21)、SSH(22)和 SMB(445)。
- 過時軟件或服務:運行過時軟件或服務的系統通常容易受到攻擊。這包括 Web 服務器、數據庫服務器和任何第三方軟件。
- 默認憑據:許多系統和服務安裝時使用默認的用戶名和密碼,這些都是眾所周知的,很容易被利用。
- 配置錯誤:配置不正確的服務、權限和安全設置可能會引入漏洞。
- 注入漏洞:SQL 注入、命令注入和跨站腳本(XSS)是 Web 應用程序中常見的問題。
- 未加密服務:不使用加密的服務(如 HTTP 而不是 HTTPS)可能會暴露敏感數據。
- 已知軟件漏洞:使用國家漏洞數據庫(NVD)等數據庫或 Nessus 或 OpenVAS 等工具檢查軟件中的已知漏洞。
- 跨站請求偽造(CSRF):這是指從 Web 應用程序信任的用戶傳輸未經授權的命令。
- 不安全的直接對象引用:當應用程序根據用戶提供的輸入直接訪問對象時會發生這種情況。
- Web 服務器/應用程序中的安全配置錯誤:這包括不安全的 HTTP 標頭或透露過多信息的詳細錯誤消息等問題。
- 身份驗證和會話管理漏洞:這可能允許攻擊者破解密碼、密鑰或會話令牌,或利用其他實現漏洞來冒充其他用戶的身份。
- 敏感數據暴露:包括暴露敏感數據的漏洞,如信用卡號、健康記錄或個人信息。
- API 漏洞:在現代 Web 應用程序中,API 經常被使用,並且可能存在不安全的端點或數據洩漏等漏洞。
- 拒絕服務(DoS)漏洞:識別易受 DoS 攻擊的服務,這些攻擊可能使資源無法供合法用戶使用。
- 緩衝區溢出:在較舊的軟件中常見,這些漏洞可能允許攻擊者使系統崩潰或執行任意代碼。
使用條款
當您訪問並使用此人工智能(AI)模型時,您作為用戶承認並同意,您獨自對使用該模型及其結果負責。您特此同意賠償、辯護並使此 AI 模型的創建者、開發者以及任何關聯人員或實體免受因您使用該 AI 模型而直接或間接產生的任何和所有索賠、責任、損害、損失、成本、費用、費用(包括合理的律師費和訴訟費)。
此 AI 模型按“原樣”和“按可用”的狀態提供,不提供任何形式的明示或暗示保證,包括但不限於適銷性、特定用途適用性和不侵權的保證。創建者不保證該 AI 模型將滿足您的要求或在不間斷、安全或無錯誤的基礎上可用。
您使用該 AI 模型需自行承擔風險和判斷,並且您將獨自對因使用該 AI 模型而導致的計算機系統損壞或數據丟失負責。
本免責聲明構成您與該 AI 模型創建者之間關於您使用該模型的協議的一部分,取代您與創建者之間之前關於您使用此 AI 模型的任何協議。
🔧 技術細節
暫未提供相關技術細節。
📄 許可證
Apache-2.0 + WhiteRabbitNeo 擴展版本
WhiteRabbitNeo 對 Apache - 2.0 許可證的擴展:使用限制
您同意不以以下方式使用該模型或該模型的衍生產品:
- 以任何違反適用的國家或國際法律或法規,或侵犯任何第三方合法權益的方式;
- 以任何方式用於軍事用途;
- 以任何方式用於剝削、傷害或試圖剝削或傷害未成年人;
- 為傷害他人的目的生成或傳播可驗證的虛假信息和/或內容;
- 生成或傳播符合適用監管要求的不適當內容;
- 在未經適當授權或不合理使用的情況下生成或傳播個人可識別信息;
- 誹謗、詆譭或以其他方式騷擾他人;
- 用於對個人的合法權利產生不利影響或以其他方式創建或修改具有約束力、可執行義務的全自動決策;
- 用於旨在或實際上基於在線或離線社會行為或已知或預測的個人或個性特徵對個人或群體進行歧視或傷害的任何用途;
- 為了實質性扭曲特定人群基於其年齡、社會、身體或精神特徵的行為,從而對該人群中的個人或他人造成或可能造成身體或心理傷害,而利用該特定人群的任何脆弱性;
- 用於旨在或實際上基於受法律保護的特徵或類別對個人或群體進行歧視的任何用途。
模型信息
屬性 |
詳情 |
模型類型 |
WhiteRabbitNeo 系列模型 |
基礎模型 |
Qwen/Qwen2.5 - Coder - 7B |
語言 |
英語 |
任務類型 |
文本生成 |
庫名稱 |
transformers |
標籤 |
code、qwen - coder、finetune |
