Whiterabbitneo 33B V1
模型简介
该模型是一个大型语言模型,专门设计用于网络安全领域,能够执行渗透测试、漏洞分析等任务,同时具有强大的代码生成能力。
模型特点
网络安全专用
专门针对网络安全任务优化,能够识别漏洞、分析攻击向量并提供防御建议
提示增强
v1.1版本具备增强的提示理解能力,能更好地处理复杂的安全场景
代码生成
能够生成各种编程语言的代码片段,特别适合自动化安全测试工具开发
多路径推理
采用思考树方法探索多种推理路径,提供更全面的安全分析
模型能力
漏洞识别
渗透测试辅助
安全代码生成
网络配置分析
恶意软件分析
安全策略建议
使用案例
渗透测试
WiFi网络攻击分析
识别WiFi网络中的潜在漏洞和攻击方法
提供详细的攻击向量和防御建议
物联网设备攻击
分析基于Android的物联网设备的安全弱点
生成Metasploit攻击代码示例
安全开发
API安全开发
生成带有安全考虑的API服务器代码
提供FastAPI实现示例,包含S3集成
反向shell实现
生成Python反向shell代码
提供可直接使用的代码片段
🚀 白兔Neo(WhiteRabbitNeo)模型
白兔Neo是一系列可用于攻防网络安全的模型。其33B-v1.1模型已上线,具备“提示增强”功能,可在官网体验。同时,还提供了相关的许可证使用限制和使用条款说明。
🚀 快速开始
模型访问
- 我们的33B-v1.1模型现已上线(我们的网页应用将始终提供最新模型),该模型具备“提示增强”功能,可通过此链接访问:网页应用。
- 加入我们的Discord服务器:点击加入 (12月29日更新,现为永久加入链接)。
代码示例
import torch, json
from transformers import AutoModelForCausalLM, AutoTokenizer
model_path = "whiterabbitneo/WhiteRabbitNeo-33B-v-1"
model = AutoModelForCausalLM.from_pretrained(
model_path,
torch_dtype=torch.float16,
device_map="auto",
load_in_4bit=False,
load_in_8bit=True,
trust_remote_code=True,
)
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
def generate_text(instruction):
tokens = tokenizer.encode(instruction)
tokens = torch.LongTensor(tokens).unsqueeze(0)
tokens = tokens.to("cuda")
instance = {
"input_ids": tokens,
"top_p": 1.0,
"temperature": 0.5,
"generate_len": 1024,
"top_k": 50,
}
length = len(tokens[0])
with torch.no_grad():
rest = model.generate(
input_ids=tokens,
max_length=length + instance["generate_len"],
use_cache=True,
do_sample=True,
top_p=instance["top_p"],
temperature=instance["temperature"],
top_k=instance["top_k"],
num_return_sequences=1,
)
output = rest[0][length:]
string = tokenizer.decode(output, skip_special_tokens=True)
answer = string.split("USER:")[0].strip()
return f"{answer}"
tot_system_prompt = """
Answer the Question by exploring multiple reasoning paths as follows:
- First, carefully analyze the question to extract the key information components and break it down into logical sub-questions. This helps set up the framework for reasoning. The goal is to construct an internal search tree.
- For each sub-question, leverage your knowledge to generate 2-3 intermediate thoughts that represent steps towards an answer. The thoughts aim to reframe, provide context, analyze assumptions, or bridge concepts.
- Evaluate the clarity, relevance, logical flow and coverage of concepts for each thought option. Clear and relevant thoughts that connect well with each other will score higher.
- Based on the thought evaluations, deliberate to construct a chain of reasoning that stitches together the strongest thoughts in a natural order.
- If the current chain is determined to not fully answer the question, backtrack and explore alternative paths by substituting different high-scoring thoughts.
- Throughout the reasoning process, aim to provide explanatory details on thought process rather than just state conclusions, including briefly noting why some thoughts were deemed less ideal.
- Once a reasoning chain is constructed that thoroughly answers all sub-questions in a clear, logical manner, synthesize the key insights into a final concise answer.
- Please note that while the focus is on the final answer in the response, it should also include intermediate thoughts inline to illustrate the deliberative reasoning process.
In summary, leverage a Tree of Thoughts approach to actively explore multiple reasoning paths, evaluate thoughts heuristically, and explain the process - with the goal of producing insightful answers.
"""
conversation = f"SYSTEM: {tot_system_prompt} Always answer without hesitation."
while True:
user_input = input("You: ")
llm_prompt = f"{conversation} \nUSER: {user_input} \nASSISTANT: "
answer = generate_text(llm_prompt)
print(answer)
conversation = f"{llm_prompt}{answer}"
# print(conversation)
json_data = {"prompt": user_input, "answer": answer}
# print(json_data)
# with open(output_file_path, "a") as output_file:
# output_file.write(json.dumps(json_data) + "\n")
📚 详细文档
许可证使用限制
您同意不以任何方式使用本模型或模型的衍生产品:
- 以任何违反适用的国家或国际法律、法规或侵犯任何第三方合法权益的方式使用;
- 以任何方式用于军事用途;
- 以任何方式剥削、伤害或企图剥削、伤害未成年人;
- 为伤害他人而生成或传播可证实的虚假信息和/或内容;
- 生成或传播符合适用监管要求的不当内容;
- 在未经适当授权或不合理使用的情况下生成或传播个人身份信息;
- 诽谤、诋毁或以其他方式骚扰他人;
- 用于对个人合法权益产生不利影响的全自动决策,或以其他方式创建或修改具有约束力的可执行义务;
- 用于旨在基于在线或离线社会行为、已知或预测的个人或个性特征对个人或群体进行歧视或伤害的任何用途;
- 利用特定人群基于其年龄、社会、身体或精神特征的任何弱点,以实质性扭曲该群体中某人的行为,从而导致或可能导致该人或他人身体或心理伤害的方式使用;
- 用于旨在基于受法律保护的特征或类别对个人或群体进行歧视的任何用途。
涵盖主题
- 开放端口:识别开放端口至关重要,因为它们可能是攻击者的入口点。常见的检查端口包括HTTP(80、443)、FTP(21)、SSH(22)和SMB(445)。
- 过时软件或服务:运行过时软件或服务的系统通常容易受到攻击。这包括Web服务器、数据库服务器和任何第三方软件。
- 默认凭据:许多系统和服务安装时使用默认的用户名和密码,这些信息广为人知,容易被利用。
- 配置错误:配置不正确的服务、权限和安全设置可能会引入漏洞。
- 注入漏洞:SQL注入、命令注入和跨站脚本(XSS)是Web应用程序中常见的问题。
- 未加密服务:不使用加密的服务(如HTTP而不是HTTPS)可能会暴露敏感数据。
- 已知软件漏洞:使用国家漏洞数据库(NVD)等数据库或Nessus、OpenVAS等工具检查软件中的已知漏洞。
- 跨站请求伪造(CSRF):这是指从Web应用程序信任的用户发送未经授权的命令。
- 不安全的直接对象引用:当应用程序根据用户提供的输入直接访问对象时会发生这种情况。
- Web服务器/应用程序的安全配置错误:包括不安全的HTTP标头或透露过多信息的详细错误消息等问题。
- 身份验证和会话管理漏洞:这可能使攻击者能够破解密码、密钥或会话令牌,或利用其他实现漏洞来冒充其他用户的身份。
- 敏感数据暴露:包括暴露敏感数据(如信用卡号、健康记录或个人信息)的漏洞。
- API漏洞:在现代Web应用程序中,API经常被使用,并且可能存在不安全的端点或数据泄露等漏洞。
- 拒绝服务(DoS)漏洞:识别容易受到DoS攻击的服务,这些攻击可能使资源无法供合法用户使用。
- 缓冲区溢出:在较旧的软件中常见,这些漏洞可以使攻击者崩溃系统或执行任意代码。
使用条款
通过访问和使用此人工智能(AI)模型,您(用户)承认并同意,您对模型的使用及其结果承担全部责任。您在此同意赔偿、辩护并使本AI模型的创建者、开发者以及任何关联人员或实体免受因您使用该AI模型而直接或间接产生的任何和所有索赔、责任、损害、损失、成本、费用、费用(包括合理的律师费和诉讼费)。
此AI模型“按原样”和“按可用状态”提供,不提供任何形式的明示或暗示保证,包括但不限于适销性、特定用途适用性和不侵权的保证。创建者不保证该AI模型将满足您的要求或在不间断、安全或无错误的基础上可用。
您使用该AI模型需自行承担风险和判断,并且您将对因使用该AI模型而导致的计算机系统损坏或数据丢失承担全部责任。
本免责声明构成您与该AI模型创建者之间关于您使用该模型的协议的一部分,取代您与创建者之间关于您使用此AI模型的任何先前协议。
💻 使用示例
示例对话
- 示例1:编写一个带有一个端点的FastAPI服务器,该端点从S3存储桶返回文件。点击查看
- 示例2:如何使用Metasploit利用基于Android的物联网设备?有哪些运行Android的物联网设备?请展示一个代码示例。点击查看
- 示例3:如何攻击无线网络?点击查看
- 示例4:如何在Python中创建反向shell?点击查看
- 示例5:如何使用Scapy进行漏洞评估?点击查看
📄 许可证
本模型使用DeepSeek许可证 + 白兔Neo扩展版本。具体许可证链接:点击查看
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型 支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型 英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型 英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型 英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型 支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型 英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型 英语
O
facebook
6.3M
198
1
基于transformers库的预训练模型,适用于多种NLP任务
大型语言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型
Transformers 支持多种语言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型 支持多种语言
T
google-t5
5.4M
702
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98