🚀 小熠(Yee)AI 数据安全专家
小熠(Yee)是由广州熠数信息技术有限公司开发的一款专注于数据安全领域的 AI 专家系统。它基于先进的 Qwen3 - 1.7B 大语言模型架构,融合了数据分类分级、安全审计、防护检测等专业能力,为工业、政务、运营商等行业提供轻量化、智能化的数据安全解决方案,助力企业实现“合规、可视、可控、可防”的数据安全目标。

由 广州熠数信息技术有限公司 开发,基于大语言模型技术构建的数据安全智能助手。
该仓库为 Yee - R1 - mini 的 GGUF 模型文件
模型信息
属性 |
详情 |
库名称 |
transformers |
许可证 |
apache - 2.0 |
许可证链接 |
[https://huggingface.co/Qwen/Qwen3 - 1.7B/blob/main/LICENSE](https://huggingface.co/Qwen/Qwen3 - 1.7B/blob/main/LICENSE) |
任务类型 |
文本生成 |
基础模型 |
Qwen/Qwen3 - 1.7B - Base |
🚀 快速开始
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("sds-ai/Yee-R1-mini")
model = AutoModelForCausalLM.from_pretrained(
"sds-ai/Yee-R1-mini",
torch_dtype="auto",
device_map="auto"
)
prompt = "请帮我检查这份数据是否包含敏感字段?"
messages = [{"role": "user", "content": prompt}]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=True
)
inputs = tokenizer([text], return_tensors="pt").to(model.device)
response_ids = model.generate(**inputs, max_new_tokens=32768)
response = tokenizer.decode(response_ids[0][len(inputs.input_ids[0]):], skip_special_tokens=True)
print("小熠:\n", response)
✨ 主要特性
基于 Qwen3 - 1.7B 构建
- 使用阿里巴巴通义千问最新一代大语言模型 Qwen3,具备强大的推理、逻辑判断与指令执行能力。
- 支持在 Thinking Mode 和 Non - Thinking Mode 之间灵活切换,适应不同应用场景。
双模推理机制
- 在复杂逻辑任务(如代码分析、数学计算、策略制定)中启用 Thinking Mode。
- 在日常对话、快速响应场景中使用 Non - Thinking Mode,提升效率。
Agent 化能力
- 集成 Qwen - Agent 框架,支持调用外部工具(如数据库接口、日志分析器、API 接口等),实现自动化任务执行。
高兼容性
- 支持主流部署方式:本地运行、Docker 容器、Kubernetes 集群、SaaS API 接口等。
- 兼容 HuggingFace Transformers、vLLM、SGLang、Ollama 等推理框架。
📊 性能测试
以下是小熠在 [CS - Eval](https://cs - eval.com/#/app/leaderBoard) 中多个安全领域的综合得分测试结果,基于模拟真实业务场景的评估体系生成:
综合得分 |
系统安全及软件安全基础 |
访问控制与身份管理 |
加密技术与密钥管理 |
基础设施安全 |
AI与网络安全 |
漏洞管理与渗透测试 |
威胁检测与预防 |
数据安全和隐私保护 |
供应链安全 |
安全架构设计 |
业务连续性与应急响应恢复 |
中文任务 |
英文任务 |
77.48 |
78.00 |
79.31 |
71.90 |
78.37 |
84.65 |
75.24 |
78.41 |
73.02 |
86.71 |
80.49 |
71.33 |
77.58 |
76.03 |
📦 安装指南
使用 SGLang 启动服务
python -m sglang.launch_server --model-path sds-ai/Yee-R1-mini --reasoning-parser qwen3
使用 vLLM 启动服务
vllm serve sds-ai/Yee-R1-mini --enable-reasoning --reasoning-parser deepseek_r1
使用 Ollama / LMStudio / llama.cpp / KTransformers
Qwen3 已被主流本地化 LLM 工具广泛支持,详情请参考官方文档。
📚 详细文档
最佳实践建议
为获得最佳性能,请遵循以下推荐设置:
场景 |
温度 |
TopP |
TopK |
MinP |
Presence Penalty |
思考模式 (enable_thinking=True ) |
0.6 |
0.95 |
20 |
0 |
1.5 (减少重复输出) |
非思考模式 (enable_thinking=False ) |
0.7 |
0.8 |
20 |
0 |
不推荐使用 |
- 输出长度建议设为 32,768 tokens,复杂任务可提升至 38,912 tokens。
- 在多轮对话中,历史记录应仅保留最终输出部分,避免引入思维内容影响上下文理解。
📞 联系我们
了解更多关于小熠的信息,请访问 熠数信息官网
🌟 致谢
感谢阿里通义实验室开源 Qwen3 模型,为小熠提供了坚实的语言理解和生成能力基础。
📄 许可证
本项目采用 [apache - 2.0](https://huggingface.co/Qwen/Qwen3 - 1.7B/blob/main/LICENSE) 许可证。