🚀 小熠(Yee)AI データセキュリティエキスパート
小熠(Yee)は、大規模言語モデル技術に基づいて構築されたデータセキュリティのインテリジェントアシスタントです。このリポジトリは Yee - R1 - mini の GGUF モデルファイルです。このシステムは、データセキュリティ分野に特化しており、産業、行政、通信事業者などの業界に軽量でインテリジェントなデータセキュリティソリューションを提供します。

このシステムは 广州熠数信息技术有限公司 によって開発されました。
小熠(Yee)は、データセキュリティ分野に特化した AI エキスパートシステムです。先進的な Qwen3 - 1.7B 大規模言語モデルアーキテクチャに基づき、データの分類・階層化、セキュリティ監査、防護検出などの専門的な機能を融合しています。産業、行政、通信事業者などの業界に軽量でインテリジェントなデータセキュリティソリューションを提供し、ユーザーが「コンプライアンス、可視性、制御性、防御性」のデータセキュリティ目標を達成するのを支援します。
小熠は、AI データセキュリティエキスパート大規模言語モデルを核心技術基盤として、全スタック型のデータセキュリティ監査と全リンク型の漏洩防止システムを構築し、「クラウド」、「ネットワーク」、「エンドポイント」の 3 つのシナリオで実装され、企業がデジタル経済時代のセキュリティ課題に対応するのを支援します。
✨ 主な機能
-
Qwen3 - 1.7B ベースの構築
- アリババの通義千問最新世代の大規模言語モデル Qwen3 を使用しており、強力な推論、論理判断、命令実行能力を備えています。
- Thinking Mode と Non - Thinking Mode を柔軟に切り替えることができ、さまざまなアプリケーションシナリオに対応します。
-
デュアルモード推論メカニズム
- 複雑な論理タスク(コード分析、数学計算、戦略策定など)では Thinking Mode を有効にします。
- 日常会話や迅速な応答シナリオでは Non - Thinking Mode を使用し、効率を向上させます。
-
エージェント化能力
- Qwen - Agent フレームワークを統合し、外部ツール(データベースインターフェース、ログ分析ツール、API インターフェースなど)の呼び出しをサポートし、自動化タスクの実行を実現します。
-
高い互換性
- 主流のデプロイメント方法:ローカル実行、Docker コンテナ、Kubernetes クラスタ、SaaS API インターフェースなどをサポートします。
- HuggingFace Transformers、vLLM、SGLang、Ollama などの推論フレームワークと互換性があります。
📊 性能テスト
以下は、小熠が [CS - Eval](https://cs - eval.com/#/app/leaderBoard) の複数のセキュリティ分野における総合スコアのテスト結果です。これは、実際のビジネスシナリオを模擬した評価システムに基づいて生成されています。
総合スコア |
システムセキュリティとソフトウェアセキュリティ基礎 |
アクセス制御と ID 管理 |
暗号化技術と鍵管理 |
インフラストラクチャセキュリティ |
AI とネットワークセキュリティ |
脆弱性管理と浸透テスト |
脅威検出と予防 |
データセキュリティとプライバシー保護 |
サプライチェーンセキュリティ |
セキュリティアーキテクチャ設計 |
ビジネス継続性と緊急対応復旧 |
中国語タスク |
英語タスク |
77.48 |
78.00 |
79.31 |
71.90 |
78.37 |
84.65 |
75.24 |
78.41 |
73.02 |
86.71 |
80.49 |
71.33 |
77.58 |
76.03 |
📦 インストール
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("sds-ai/Yee-R1-mini")
model = AutoModelForCausalLM.from_pretrained(
"sds-ai/Yee-R1-mini",
torch_dtype="auto",
device_map="auto"
)
prompt = "このデータに敏感なフィールドが含まれているかチェックしてください。"
messages = [{"role": "user", "content": prompt}]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=True
)
inputs = tokenizer([text], return_tensors="pt").to(model.device)
response_ids = model.generate(**inputs, max_new_tokens=32768)
response = tokenizer.decode(response_ids[0][len(inputs.input_ids[0]):], skip_special_tokens=True)
print("小熠:\n", response)
🚀 クイックスタート
SGLang を使用してサービスを起動する
python -m sglang.launch_server --model-path sds-ai/Yee-R1-mini --reasoning-parser qwen3
vLLM を使用してサービスを起動する
vllm serve sds-ai/Yee-R1-mini --enable-reasoning --reasoning-parser deepseek_r1
Ollama / LMStudio / llama.cpp / KTransformers を使用する
Qwen3 は主流のローカライズ LLM ツールに広くサポートされています。詳細は公式ドキュメントを参照してください。
📚 ドキュメント
ベストプラクティスの推奨事項
最高のパフォーマンスを得るには、以下の推奨設定に従ってください。
シナリオ |
温度 |
TopP |
TopK |
MinP |
Presence Penalty |
思考モード (enable_thinking=True ) |
0.6 |
0.95 |
20 |
0 |
1.5 (重複出力を減らす) |
非思考モード (enable_thinking=False ) |
0.7 |
0.8 |
20 |
0 |
推奨しない |
- 出力長は 32,768 tokens に設定することをお勧めします。複雑なタスクでは 38,912 tokens に引き上げることができます。
- マルチラウンドダイアログでは、履歴記録は最終出力部分のみを保持し、思考内容を含めないようにして、コンテキストの理解に影響を与えないようにしてください。
📞 お問い合わせ
小熠に関する詳細情報は、熠数情報公式サイト をご覧ください。
🌟 謝辞
小熠に強力な言語理解と生成能力を提供してくれた、阿里通義研究所の Qwen3 モデルのオープンソース化に感謝いたします。
📄 ライセンス
このライブラリは Apache - 2.0 ライセンスの下で提供されています。
プロパティ |
詳細 |
ライブラリ名 |
transformers |
パイプラインタグ |
テキスト生成 |
ベースモデル |
Qwen/Qwen3-1.7B-Base |
ライセンス |
Apache - 2.0 |
ライセンスリンク |
Apache - 2.0 |