🚀 小熠(Yee)AI 數據安全專家
小熠(Yee)是由廣州熠數信息技術有限公司開發的一款專注於數據安全領域的 AI 專家系統。它基於先進的 Qwen3 - 1.7B 大語言模型架構,融合了數據分類分級、安全審計、防護檢測等專業能力,為工業、政務、運營商等行業提供輕量化、智能化的數據安全解決方案,助力企業實現“合規、可視、可控、可防”的數據安全目標。

由 廣州熠數信息技術有限公司 開發,基於大語言模型技術構建的數據安全智能助手。
該倉庫為 Yee - R1 - mini 的 GGUF 模型文件
模型信息
屬性 |
詳情 |
庫名稱 |
transformers |
許可證 |
apache - 2.0 |
許可證鏈接 |
[https://huggingface.co/Qwen/Qwen3 - 1.7B/blob/main/LICENSE](https://huggingface.co/Qwen/Qwen3 - 1.7B/blob/main/LICENSE) |
任務類型 |
文本生成 |
基礎模型 |
Qwen/Qwen3 - 1.7B - Base |
🚀 快速開始
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("sds-ai/Yee-R1-mini")
model = AutoModelForCausalLM.from_pretrained(
"sds-ai/Yee-R1-mini",
torch_dtype="auto",
device_map="auto"
)
prompt = "請幫我檢查這份數據是否包含敏感字段?"
messages = [{"role": "user", "content": prompt}]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=True
)
inputs = tokenizer([text], return_tensors="pt").to(model.device)
response_ids = model.generate(**inputs, max_new_tokens=32768)
response = tokenizer.decode(response_ids[0][len(inputs.input_ids[0]):], skip_special_tokens=True)
print("小熠:\n", response)
✨ 主要特性
基於 Qwen3 - 1.7B 構建
- 使用阿里巴巴通義千問最新一代大語言模型 Qwen3,具備強大的推理、邏輯判斷與指令執行能力。
- 支持在 Thinking Mode 和 Non - Thinking Mode 之間靈活切換,適應不同應用場景。
雙模推理機制
- 在複雜邏輯任務(如代碼分析、數學計算、策略制定)中啟用 Thinking Mode。
- 在日常對話、快速響應場景中使用 Non - Thinking Mode,提升效率。
Agent 化能力
- 集成 Qwen - Agent 框架,支持調用外部工具(如數據庫接口、日誌分析器、API 接口等),實現自動化任務執行。
高兼容性
- 支持主流部署方式:本地運行、Docker 容器、Kubernetes 集群、SaaS API 接口等。
- 兼容 HuggingFace Transformers、vLLM、SGLang、Ollama 等推理框架。
📊 性能測試
以下是小熠在 [CS - Eval](https://cs - eval.com/#/app/leaderBoard) 中多個安全領域的綜合得分測試結果,基於模擬真實業務場景的評估體系生成:
綜合得分 |
系統安全及軟件安全基礎 |
訪問控制與身份管理 |
加密技術與密鑰管理 |
基礎設施安全 |
AI與網絡安全 |
漏洞管理與滲透測試 |
威脅檢測與預防 |
數據安全和隱私保護 |
供應鏈安全 |
安全架構設計 |
業務連續性與應急響應恢復 |
中文任務 |
英文任務 |
77.48 |
78.00 |
79.31 |
71.90 |
78.37 |
84.65 |
75.24 |
78.41 |
73.02 |
86.71 |
80.49 |
71.33 |
77.58 |
76.03 |
📦 安裝指南
使用 SGLang 啟動服務
python -m sglang.launch_server --model-path sds-ai/Yee-R1-mini --reasoning-parser qwen3
使用 vLLM 啟動服務
vllm serve sds-ai/Yee-R1-mini --enable-reasoning --reasoning-parser deepseek_r1
使用 Ollama / LMStudio / llama.cpp / KTransformers
Qwen3 已被主流本地化 LLM 工具廣泛支持,詳情請參考官方文檔。
📚 詳細文檔
最佳實踐建議
為獲得最佳性能,請遵循以下推薦設置:
場景 |
溫度 |
TopP |
TopK |
MinP |
Presence Penalty |
思考模式 (enable_thinking=True ) |
0.6 |
0.95 |
20 |
0 |
1.5 (減少重複輸出) |
非思考模式 (enable_thinking=False ) |
0.7 |
0.8 |
20 |
0 |
不推薦使用 |
- 輸出長度建議設為 32,768 tokens,複雜任務可提升至 38,912 tokens。
- 在多輪對話中,歷史記錄應僅保留最終輸出部分,避免引入思維內容影響上下文理解。
📞 聯繫我們
瞭解更多關於小熠的信息,請訪問 熠數信息官網
🌟 致謝
感謝阿里通義實驗室開源 Qwen3 模型,為小熠提供了堅實的語言理解和生成能力基礎。
📄 許可證
本項目採用 [apache - 2.0](https://huggingface.co/Qwen/Qwen3 - 1.7B/blob/main/LICENSE) 許可證。