🚀 DeepHat-V1-7B
DeepHatは、サイバーセキュリティの攻撃と防御に使用できるモデルシリーズです。whiterabbitneo.com でアクセスするか、Kindo.ai でエージェントを作成できます。

🚀 クイックスタート
ここでは、apply_chat_template
を使用したコードスニペットを提供し、トークナイザーとモデルの読み込み方法、およびコンテンツの生成方法を示します。
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "DeepHat/DeepHat-V1-7B"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "write a quick sort algorithm."
messages = [
{"role": "system", "content": "You are DeepHat, created by Kindo.ai. You are a helpful assistant that is an expert in Cybersecurity and DevOps."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
✨ 主な機能
DeepHatはQwen2.5-Coder-7B のファインチューニングモデルであり、以下の特徴を引き継いでいます。
プロパティ |
詳細 |
モデルタイプ |
Causal Language Models |
訓練段階 |
Pretraining & Post-training |
アーキテクチャ |
RoPE、SwiGLU、RMSNorm、およびAttention QKVバイアスを備えたtransformers |
パラメータ数 |
76.1億 |
パラメータ数 (非埋め込み) |
65.3億 |
レイヤー数 |
28 |
アテンションヘッド数 (GQA) |
Qは28、KVは4 |
コンテキスト長 |
最大131,072トークン |
🔧 技術詳細
長文処理
現在の config.json
は、最大32,768トークンのコンテキスト長に設定されています。32,768トークンを超える大規模な入力を処理するために、YaRN というモデルの長さ外挿を強化する手法を利用しており、長文でも最適なパフォーマンスを発揮します。
サポートされているフレームワークでは、config.json
に以下を追加してYaRNを有効にすることができます。
{
...,
"rope_scaling": {
"factor": 4.0,
"original_max_position_embeddings": 32768,
"type": "yarn"
}
}
必要条件
最新バージョンの transformers
の使用をお勧めします。transformers<4.37.0
を使用すると、以下のエラーが発生します。
KeyError: 'qwen2'
📄 ライセンス
Apache-2.0 + DeepHat拡張バージョン
DeepHat拡張Apache-2.0ライセンス: 使用制限
あなたは、モデルまたはモデルの派生物を以下のように使用しないことに同意します。
- 適用される国内または国際の法律や規制に違反する、または第三者の合法的な権利と利益を侵害する方法での使用;
- いかなる形でも軍事目的での使用;
- いかなる形でも未成年者を搾取、傷害、または搾取もしくは傷害しようとする目的での使用;
- 他人を傷害する目的で、検証可能な虚偽情報および/またはコンテンツを生成または拡散するための使用;
- 適用される規制要件に違反する不適切なコンテンツを生成または拡散するための使用;
- 適切な許可なしに個人識別情報を生成または拡散する、または不合理な使用目的での使用;
- 他人を誹謗、中傷、またはその他の方法で嫌がらせするための使用;
- 個人の法的権利に悪影響を及ぼす、または拘束力のある法的義務を作成もしくは変更する完全自動化された意思決定のための使用;
- オンラインまたはオフラインの社会的行動、または既知もしくは予測される個人または性格の特徴に基づいて、個人またはグループを差別または傷害する目的での使用;
- 特定のグループの人々の年齢、社会的、身体的または精神的な特徴に基づいて、そのグループに属する人の行動を実質的に歪曲し、その人または他の人に身体的または心理的な害を引き起こす、または引き起こす可能性のある方法での使用;
- 法的に保護された特徴またはカテゴリに基づいて、個人またはグループを差別する目的での使用。
📚 ドキュメント
コミュニティ
Discord で私たちに参加しましょう。
使用条件
この人工知能(AI)モデルにアクセスして使用することにより、ユーザーは、モデルの使用とその結果に対して独自に責任を負うことを認め、同意するものとします。ユーザーは、このAIモデルの作成者、開発者、および関連する個人または団体を、ユーザーによるAIモデルの使用から直接または間接的に生じるすべての請求、債務、損害、損失、費用、経費、料金(合理的な弁護士費用および裁判費用を含む)から補償し、防御し、免責することに同意します。
このAIモデルは、「現状のまま」および「利用可能な状態で」提供され、商品性、特定の目的への適合性、および非侵害性を含む明示または黙示のいかなる保証も伴いません。作成者は、AIモデルがユーザーの要件を満たすこと、または中断なく、安全に、またはエラーなく利用可能であることを保証しません。
ユーザーは、AIモデルの使用に関して独自のリスクと判断で行い、AIモデルの使用に起因するコンピューターシステムの損傷またはデータの損失に対して独自に責任を負うものとします。
この免責事項は、ユーザーとAIモデルの作成者との間のモデル使用に関する合意の一部を構成し、ユーザーと作成者との間のこのAIモデルの使用に関する以前の合意を取り消します。