🚀 L3-Dark-Planet-8B-V2-Eight-Orbs-Of-Power GGUF
このモデルは、最大コンテキストが8192(またはropeを使用すると32k以上)のLLama3モデルです。このモデルは比較的堅牢に設計されており、すべてのパラメータで動作します。温度設定も0から5まで対応しています。
これは非常に低いパープレキシティレベル(Meta Llama3 Instructよりも低い)を持つ、並外れた圧縮モデルです。あらゆる執筆、フィクション、ロールプレイ活動に適しています。Llama3テンプレートまたは「Command - R」テンプレートが必要です。
✨ 主な機能
- 高度な解像度と詳細度:Dark Planet 8Bのバージョン2で、解像度が強化され(いわば32レベルのグラデーション)、命令レイヤーだけで8つのモデルを使用しています。これにより、詳細レベルとモデルの「物語力」が大幅に向上しています。
- 出力の安定性:元のDark Planet 8Bよりもさらに安定しています。
- 多様なプロンプト対応:温度設定やrep penの調整、特定の散文タイプの指定など、様々なプロンプトに対応しています。
📦 インストール
このドキュメントには具体的なインストール手順が記載されていないため、このセクションをスキップします。
💻 使用例
基本的な使用法
このモデルは、Llama3テンプレートまたは「Command - R」テンプレートを使用します。以下は、標準的なLlama3テンプレートです。
{
"name": "Llama 3",
"inference_params": {
"input_prefix": "<|start_header_id|>user<|end_header_id|>\n\n",
"input_suffix": "<|eot_id|><|start_header_id|>assistant<|end_header_id|>\n\n",
"pre_prompt": "You are a helpful, smart, kind, and efficient AI assistant. You always fulfill the user's requests to the best of your ability.",
"pre_prompt_prefix": "<|start_header_id|>system<|end_header_id|>\n\n",
"pre_prompt_suffix": "<|eot_id|>",
"antiprompt": [
"<|start_header_id|>",
"<|eot_id|>"
]
}
}
高度な使用法
- 出力の長さ調整:rep penを変更することで、出力の長さを調整できます。例えば、rep penを1.1から1.15に増やすことができます。
- 散文の多様性向上:温度を上げるか、プロンプトにより多くの命令を追加することで、より多様な散文を生成できます。
- 特定の散文タイプ指定:プロンプトに「(vivid horror)」や「(graphic vivid horror)」(引用符なし)を追加することで、特定の散文タイプを生成できます。
📚 ドキュメント
モデルの注意事項
- 詳細度と執筆能力:L3 Instructと比較して、詳細度、散文、フィクションの執筆能力が大幅に向上しています。
- 温度設定の注意:ロールプレイヤーは、温度をあまり高く上げないように注意してください。これにより、命令の追従性が影響を受ける可能性があります。
- rep penの調整:このモデルは、rep penが1以上で動作します。1.05以上が推奨されます。rep penの変更は、出力や出力の長さに大きな影響を与えます。
- GPTismsの削除:ほとんどのGPTismsが削除されています。
- ネガティブバイアス:このモデルは「皆が幸せになる」タイプのモデルではありません。ネガティブなバイアスがあります。
- 出力の長さ:出力の長さは様々ですが、サイズを指定しない限り、このモデルは短い出力を好みます。
- クオントの影響:クリエイティブな用途では、異なるクオントによってわずかに異なる出力が得られます。このモデルは高い安定性と圧縮性を持っているため、すべてのクオントが平均以上のレベルで動作します。
- ropeの使用:ropeを使用してコンテキストを拡張する場合は、温度と命令の詳細レベルを上げて、「ropeの問題」を補償してください。
設定ガイド
- 平滑化設定:「KoboldCpp」、「oobabooga/text - generation - webui」、「Silly Tavern」では、「Smoothing_factor」を1.5から2.5に設定することができます。
- rep penの増加:rep penを1.1から1.15に増やすことができます(「smoothing_factor」を使用する場合は不要です)。
- 二次サンプリングのサポート:AIモデルを実行するインターフェースやプログラムが「Quadratic Sampling」(「smoothing」)をサポートしている場合は、適切に調整してください。
最高品質設定ガイド
このモデルは「Class 1」モデルです。このモデルのすべての設定(クラス固有の設定を含む)、例生成、高度な設定ガイド(多くの場合、モデルの問題を解決します)、すべてのユースケース(チャット、ロールプレイなど)のモデルパフォーマンス向上方法については、以下を参照してください。
[ https://huggingface.co/DavidAU/Maximizing-Model-Performance-All-Quants-Types-And-Full-Precision-by-Samplers_Parameters ]
🔧 技術詳細
このモデルは、以下のモデルを使用して作成されています。
- [ https://huggingface.co/Sao10K/L3-8B-Stheno-v3.2 ]
- [ https://huggingface.co/NeverSleep/Llama-3-Lumimaid-8B-v0.1-OAS ]
- [ https://huggingface.co/Hastagaras/Jamet-8B-L3-MK.V-Blackroot ]
追加で使用されるモデルは以下の通りです。
- L3 - cat - 8b - instruct - v1
- L3 - gutenberg - 8B
- L3 - Hathor_Sofit - L3 - 8B - v1
- L3 - OpenBioLLM - 8B
- L3 - Pantheon - RP - 1.0 - 8b
- Meta - Llama - 3 - 8B - Instruct
これらのモデルの一部が「移植」または「融合」されて、このモデルが作成されています。
📄 ライセンス
このモデルは、Apache - 2.0ライセンスの下で提供されています。