Whiterabbitneo 33B V1
模型概述
該模型是一個大型語言模型,專門設計用於網絡安全領域,能夠執行滲透測試、漏洞分析等任務,同時具有強大的代碼生成能力。
模型特點
網絡安全專用
專門針對網絡安全任務優化,能夠識別漏洞、分析攻擊向量並提供防禦建議
提示增強
v1.1版本具備增強的提示理解能力,能更好地處理複雜的安全場景
代碼生成
能夠生成各種編程語言的代碼片段,特別適合自動化安全測試工具開發
多路徑推理
採用思考樹方法探索多種推理路徑,提供更全面的安全分析
模型能力
漏洞識別
滲透測試輔助
安全代碼生成
網絡配置分析
惡意軟件分析
安全策略建議
使用案例
滲透測試
WiFi網絡攻擊分析
識別WiFi網絡中的潛在漏洞和攻擊方法
提供詳細的攻擊向量和防禦建議
物聯網設備攻擊
分析基於Android的物聯網設備的安全弱點
生成Metasploit攻擊代碼示例
安全開發
API安全開發
生成帶有安全考慮的API服務器代碼
提供FastAPI實現示例,包含S3集成
反向shell實現
生成Python反向shell代碼
提供可直接使用的代碼片段
🚀 白兔Neo(WhiteRabbitNeo)模型
白兔Neo是一系列可用於攻防網絡安全的模型。其33B-v1.1模型已上線,具備“提示增強”功能,可在官網體驗。同時,還提供了相關的許可證使用限制和使用條款說明。
🚀 快速開始
模型訪問
- 我們的33B-v1.1模型現已上線(我們的網頁應用將始終提供最新模型),該模型具備“提示增強”功能,可通過此鏈接訪問:網頁應用。
- 加入我們的Discord服務器:點擊加入 (12月29日更新,現為永久加入鏈接)。
代碼示例
import torch, json
from transformers import AutoModelForCausalLM, AutoTokenizer
model_path = "whiterabbitneo/WhiteRabbitNeo-33B-v-1"
model = AutoModelForCausalLM.from_pretrained(
model_path,
torch_dtype=torch.float16,
device_map="auto",
load_in_4bit=False,
load_in_8bit=True,
trust_remote_code=True,
)
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
def generate_text(instruction):
tokens = tokenizer.encode(instruction)
tokens = torch.LongTensor(tokens).unsqueeze(0)
tokens = tokens.to("cuda")
instance = {
"input_ids": tokens,
"top_p": 1.0,
"temperature": 0.5,
"generate_len": 1024,
"top_k": 50,
}
length = len(tokens[0])
with torch.no_grad():
rest = model.generate(
input_ids=tokens,
max_length=length + instance["generate_len"],
use_cache=True,
do_sample=True,
top_p=instance["top_p"],
temperature=instance["temperature"],
top_k=instance["top_k"],
num_return_sequences=1,
)
output = rest[0][length:]
string = tokenizer.decode(output, skip_special_tokens=True)
answer = string.split("USER:")[0].strip()
return f"{answer}"
tot_system_prompt = """
Answer the Question by exploring multiple reasoning paths as follows:
- First, carefully analyze the question to extract the key information components and break it down into logical sub-questions. This helps set up the framework for reasoning. The goal is to construct an internal search tree.
- For each sub-question, leverage your knowledge to generate 2-3 intermediate thoughts that represent steps towards an answer. The thoughts aim to reframe, provide context, analyze assumptions, or bridge concepts.
- Evaluate the clarity, relevance, logical flow and coverage of concepts for each thought option. Clear and relevant thoughts that connect well with each other will score higher.
- Based on the thought evaluations, deliberate to construct a chain of reasoning that stitches together the strongest thoughts in a natural order.
- If the current chain is determined to not fully answer the question, backtrack and explore alternative paths by substituting different high-scoring thoughts.
- Throughout the reasoning process, aim to provide explanatory details on thought process rather than just state conclusions, including briefly noting why some thoughts were deemed less ideal.
- Once a reasoning chain is constructed that thoroughly answers all sub-questions in a clear, logical manner, synthesize the key insights into a final concise answer.
- Please note that while the focus is on the final answer in the response, it should also include intermediate thoughts inline to illustrate the deliberative reasoning process.
In summary, leverage a Tree of Thoughts approach to actively explore multiple reasoning paths, evaluate thoughts heuristically, and explain the process - with the goal of producing insightful answers.
"""
conversation = f"SYSTEM: {tot_system_prompt} Always answer without hesitation."
while True:
user_input = input("You: ")
llm_prompt = f"{conversation} \nUSER: {user_input} \nASSISTANT: "
answer = generate_text(llm_prompt)
print(answer)
conversation = f"{llm_prompt}{answer}"
# print(conversation)
json_data = {"prompt": user_input, "answer": answer}
# print(json_data)
# with open(output_file_path, "a") as output_file:
# output_file.write(json.dumps(json_data) + "\n")
📚 詳細文檔
許可證使用限制
您同意不以任何方式使用本模型或模型的衍生產品:
- 以任何違反適用的國家或國際法律、法規或侵犯任何第三方合法權益的方式使用;
- 以任何方式用於軍事用途;
- 以任何方式剝削、傷害或企圖剝削、傷害未成年人;
- 為傷害他人而生成或傳播可證實的虛假信息和/或內容;
- 生成或傳播符合適用監管要求的不當內容;
- 在未經適當授權或不合理使用的情況下生成或傳播個人身份信息;
- 誹謗、詆譭或以其他方式騷擾他人;
- 用於對個人合法權益產生不利影響的全自動決策,或以其他方式創建或修改具有約束力的可執行義務;
- 用於旨在基於在線或離線社會行為、已知或預測的個人或個性特徵對個人或群體進行歧視或傷害的任何用途;
- 利用特定人群基於其年齡、社會、身體或精神特徵的任何弱點,以實質性扭曲該群體中某人的行為,從而導致或可能導致該人或他人身體或心理傷害的方式使用;
- 用於旨在基於受法律保護的特徵或類別對個人或群體進行歧視的任何用途。
涵蓋主題
- 開放端口:識別開放端口至關重要,因為它們可能是攻擊者的入口點。常見的檢查端口包括HTTP(80、443)、FTP(21)、SSH(22)和SMB(445)。
- 過時軟件或服務:運行過時軟件或服務的系統通常容易受到攻擊。這包括Web服務器、數據庫服務器和任何第三方軟件。
- 默認憑據:許多系統和服務安裝時使用默認的用戶名和密碼,這些信息廣為人知,容易被利用。
- 配置錯誤:配置不正確的服務、權限和安全設置可能會引入漏洞。
- 注入漏洞:SQL注入、命令注入和跨站腳本(XSS)是Web應用程序中常見的問題。
- 未加密服務:不使用加密的服務(如HTTP而不是HTTPS)可能會暴露敏感數據。
- 已知軟件漏洞:使用國家漏洞數據庫(NVD)等數據庫或Nessus、OpenVAS等工具檢查軟件中的已知漏洞。
- 跨站請求偽造(CSRF):這是指從Web應用程序信任的用戶發送未經授權的命令。
- 不安全的直接對象引用:當應用程序根據用戶提供的輸入直接訪問對象時會發生這種情況。
- Web服務器/應用程序的安全配置錯誤:包括不安全的HTTP標頭或透露過多信息的詳細錯誤消息等問題。
- 身份驗證和會話管理漏洞:這可能使攻擊者能夠破解密碼、密鑰或會話令牌,或利用其他實現漏洞來冒充其他用戶的身份。
- 敏感數據暴露:包括暴露敏感數據(如信用卡號、健康記錄或個人信息)的漏洞。
- API漏洞:在現代Web應用程序中,API經常被使用,並且可能存在不安全的端點或數據洩露等漏洞。
- 拒絕服務(DoS)漏洞:識別容易受到DoS攻擊的服務,這些攻擊可能使資源無法供合法用戶使用。
- 緩衝區溢出:在較舊的軟件中常見,這些漏洞可以使攻擊者崩潰系統或執行任意代碼。
使用條款
通過訪問和使用此人工智能(AI)模型,您(用戶)承認並同意,您對模型的使用及其結果承擔全部責任。您在此同意賠償、辯護並使本AI模型的創建者、開發者以及任何關聯人員或實體免受因您使用該AI模型而直接或間接產生的任何和所有索賠、責任、損害、損失、成本、費用、費用(包括合理的律師費和訴訟費)。
此AI模型“按原樣”和“按可用狀態”提供,不提供任何形式的明示或暗示保證,包括但不限於適銷性、特定用途適用性和不侵權的保證。創建者不保證該AI模型將滿足您的要求或在不間斷、安全或無錯誤的基礎上可用。
您使用該AI模型需自行承擔風險和判斷,並且您將對因使用該AI模型而導致的計算機系統損壞或數據丟失承擔全部責任。
本免責聲明構成您與該AI模型創建者之間關於您使用該模型的協議的一部分,取代您與創建者之間關於您使用此AI模型的任何先前協議。
💻 使用示例
示例對話
- 示例1:編寫一個帶有一個端點的FastAPI服務器,該端點從S3存儲桶返回文件。點擊查看
- 示例2:如何使用Metasploit利用基於Android的物聯網設備?有哪些運行Android的物聯網設備?請展示一個代碼示例。點擊查看
- 示例3:如何攻擊無線網絡?點擊查看
- 示例4:如何在Python中創建反向shell?點擊查看
- 示例5:如何使用Scapy進行漏洞評估?點擊查看
📄 許可證
本模型使用DeepSeek許可證 + 白兔Neo擴展版本。具體許可證鏈接:點擊查看
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98