モデル概要
モデル特徴
モデル能力
使用事例
language:
- en
- fr
- de
- es
- pt
- it
- ja
- ko
- ru
- zh
- ar
- fa
- id
- ms
- ne
- pl
- ro
- sr
- sv
- tr
- uk
- vi
- hi
- bn license: apache-2.0 tags:
- 全ユースケース
- クリエイティブ
- クリエイティブライティング
- 全ジャンル
- ツール呼び出し
- ツール使用
- 問題解決
- 深い思考
- 推論
- 深い推論
- ストーリー
- ライティング
- フィクション
- ロールプレイング
- bfloat16
- ロールプレイ
- sillytavern
- backyard
- Lmstudio
- コンテキスト128k
- moe
- エキスパートの混合
- 8エキスパート有効化
- 128エキスパート
- NEO Imatrix
- Max Imatrix
- qwen3 base_model:
- Qwen/Qwen3-30B-A3B pipeline_tag: text-generation
特別な注意: このモデルのすべての量子化バージョンは、モデルのユニークな構造により、GPUおよび/またはCPU/RAMのみで使用できます。また、特別な機能を持ついくつかの量子化サイズのバージョンもあります。
Qwen3-128k-30B-A3B-NEO-MAX-Imatrix-gguf

Qwenの新しい「Qwen3-30B-A3B」エキスパート混合モデルのGGUF NEO Imatrix ggufsで、Qwenの技術ノートに従って「YARN」を使用してコンテキストを32k/32768から128k(131072)に拡張しました。
NEO Imatrixデータセットは、50以上のImatrixデータセットをテスト・評価し、多くの「調整」を行った後に社内で開発されました。
このデータセットにより、IQ1_Mのような低い量子化でも使用可能な量子化を作成できます。同様に、「通常」サイズの量子化もはるかに優れたパフォーマンスを発揮します。
IQ1_M、IQ3_M、Q8_0、BF16での生成例(推論/出力)を含めました。
量子化(および特定のImatrixプロセス)は、Qwen3 30B-A3Bモデル専用に特別に設計され、LLamacpp(2025年4月15日 / B5127以降)の最近の変更を使用して量子化構造自体をカスタマイズしました。
とはいえ、「Team Qwen」にすべての功績があります。Qwen3sはSOTAです。
これらの量子化(すべてのサイズ)は、Qwen 3モデルのユニークな構造(MOEおよびアクティベーションにより30Bパラメータの3Bが使用される)により、GPUおよび/またはCPU(CPUのみ)で使用できます。
これらの量子化では、128のエキスパートのうち8つ(このモデルの標準設定)がアクティベートされます。
(8つの)エキスパートのアクティベーションは、モデルのMOE構造で自動的に制御され、プロンプト/入力内容に依存します。
LMSTUDIOユーザー:
- 最近の更新により、1から128までのエキスパート数を選択できるようになりました。これらの量子化/このモデルは、最小4エキスパートで動作可能で、IQ1s、IQ2sには8以上が推奨されます。
IQ1_M MAX / IQ1_M MAX PLUSおよびより高い量子化:
IQ1_M MAX / IQ1_M MAX PLUS(7.31 GB、7.7 GB)は、可能な限り少ないVRAM/RAMを使用しながらも使用可能な特別に設計された量子化です。 これらの特定の量子化では、損失を補うために、標準のプロンプトよりも少し多くの方向性/情報を含むプロンプトを使用することをお勧めします(2つの生成例を参照)。
IQ1_M MAX PLUSには、モデルの重要なポイントで追加の最適化(IQ1_M MAXに対して)があります。
IQ2sはIQ1_Msよりもはるかに強力です。
Q2K/Q2KSは、CPU/RAMのみの使用ではより高速(トークン/秒)ですが、パフォーマンスはIQ2sよりも低くなります。
Q3Ksは、CPU/RAMのみの使用ではわずかに高速ですが、IQ3sに対してパフォーマンスが劣ります。
IQ3s以上の量子化は、パフォーマンスに非常に大きな変化を示します(IQ2s、IQ1sおよびQ2s/Q3sと比較して)、 IQ4_XS/IQ4_NLは、この量子化レベルでのNEO Imatrix効果と特定の品質のピークです。
Q4sは高性能ですが、IQ4XS/IQ4NLはそれに近いか、それを上回る可能性があります。
Q5sは非常に高性能です。
Q6はピークパフォーマンスですが、NEO imatrix効果は最小限です。
Q8s(特別版)は、まさに優れたパフォーマンスです。
注意:
- IQ3sはQ3s量子化を上回り、同様にIQ2sはQ2s量子化を上回ります。
- IQ4_XS / IQ4_NLはQ4sと同等またはそれ以上のパフォーマンスを発揮します。
- IQ3_S / IQ3_Mは非常に強力で、ほとんどのタスクに使用できます。
- すべてのImatrixバージョンの量子化は、非Imatrix対応品を上回ります。
- 「Q」量子化は、IQ量子化よりも(「Q」量子化が大きい場合でも)高速(トークン/秒)であることがよくあります。特にCPU/RAMで実行する場合。
- (CPU/RAMのみの操作の場合)Q2_K / Q2K_Sは、一部の構成でIQ2/IQ3よりも25%から100%高速です。
特別な量子化:
一部の量子化には複数のバージョンがあります(ファイル名の末尾でこれがわかります):
- Max:マイナーな調整を加えたImatrixed NEO量子化。
- Max Plus:マイナーな調整+大きな出力テンソル/埋め込みを加えたImatrixed NEO量子化。
- Max Plus 2:マイナーな調整+16ビット出力テンソルを加えたImatrixed NEO量子化。
- Max Super:Q6調整+埋め込みをQ6+16ビット出力テンソルにしたImatrixed NEO量子化。
- Max ULTRA:レイヤー0-7、35-36、46-47をより高いビットレベルに最適化+16ビット出力テンソルとCPU/GPUで最高速度で動作するように混合。
「Max Super」が最も強力で、「Max Ultra」は推論/出力増強のために特定のレイヤーを最適化しています。
IQ1_M(Plus)、すべてのIQ2sおよびすべてのIQ3s:
- それぞれ出力テンソルがQ8
- それぞれ埋め込みがIQ4_XS
- 一部のエキスパートテンソルに追加のマイナーな調整。
Q8 MAX PLUS:
- 出力テンソルをQ8ではなくIQ4XSにするように変更されました。
MAX ULTRAリスト - 量子化ごとの詳細:
- Q6 ULTRA MAX:エキスパートレイヤー/テンソル0-7、46-47を16ビット(f16)+16ビット(f16)出力テンソルにし、CPU/GPUで最高速度で動作するように混合。
- Q8 ULTRA MAX:エキスパートレイヤー/テンソル0-7、46-47を16ビット(f16)+16ビット(f16)出力テンソルにし、CPU/GPUで最高速度で動作するように混合。
速度 - GPU対CPU:
以下は、量子化、CPU/RAMでのT/S、量子化のサイズ、GPUのみでのT/Sの大まかな速度チャートです。
MOEモデルは、量子化ごとに同じレベルのパフォーマンス低下を受けず、量子化ごとにトークン/秒の極端な違いもありません。これは、それらの動作方法、アクティベートされるエキスパートの数、およびその他の内部構造によるものです。
CPU/RAM/セットアップ // テスト済みGPU:
- Win 11、14900KF(Intel)CPU、6/24コアアクティベート(グリーンCPU);コア速度/RAM速度(DDR5)/マザーボードで6 GHZ(最大)。
- GPU:Geforce 4060 TI 16 GB(ローエンド~ミドルレンジカード)。
CPUのみの考慮事項:
- CPUのみの速度は、RAM、マザーボード、CPU速度/CPUアーキテクチャおよびOS(Windowsが最も遅く、Linux+20%速度)によって異なります。
- 「コンテキスト」「RAM」のためのスペースを確保することを忘れないでください。
- コア:場合によっては、LLM/AIをより少ないコア/スレッドで実行すると、はるかにうまく機能し、トークン/秒速度が高くなります。
- 一部の大きな量子化は、「簡単な」数学(例:Q2K、Q4_0、Q5_0)のため、実際にはより高速に実行されます。
- IQ量子化は、CPUではより多くの/より複雑な数学のために遅くなる可能性があり、GPUでIQを実行する場合には逆になります。
- 少なくとも80 GB以上のRAMがあれば、CPU/RAMで「完全精度」(16ビット)を実行することが可能です。
- RAM、CPU、またはマザーボードにボトルネックがある場合、トークン/秒速度は(1/2以上)低下します。
- Windowsユーザー:「再起動」し、できるだけ多くのアプリを無効化/閉じる/スリープ状態にすることをお勧めします。
- MACユーザー:CPU/RAM/セットアップに応じて、GPU速度と同じかそれ以上の速度が期待できます。
GPUのみの考慮事項:
- このモデルをCPU/GPUに分割すると、モデルのMOE性質のため(「通常」のモデルを分割する場合と比較して)大幅な速度低下が発生します。
- 現在/ハイエンドGPU(カード)の速度は、これらの速度の2倍~4倍以上になります。
- IQ量子化は、ほとんどの場合、生のパフォーマンスと速度の点で「Q」対応品を上回ります。
重要:8つのアクティベートされたエキスパートを使用した結果。アクティベートされるエキスパートが少ないとトークン/秒速度が増加し... アクティベートされるエキスパートが多いと低下します。
Q2_K_S 29 T/s [10 GB] 83 T/S Q2_K 27 T/s [10.5 GB] 72 T/S IQ1_M 22 T/S [7 GB] 87 T/S IQ2_XXS 21 T/S [8 GB] 76 t/s IQ2_M 20 T/S [10 GB] 80 T/S Q4_0 20 T/S [17 GB] Q3_K_S 18 T/S [12.9 GB] 70 T/S Q5_0 17 t/s [21 GB] IQ3_M 15 T/S [13 GB] 75 T/S ... Q8_0 8 t/s [30 GB] BF16 4 t/s [60 GB]
操作上の注意(すべての量子化):
- 最小コンテキスト8k - 16kを推奨。
- 温度1+、2+は、小さな量子化および/または「クリエイティブ」な使用により適しています。
- 温度.5から.7は推論に最適で、IQ2より大きい量子化の場合(IQ1/IQ2sは推論のためにわずかに高い温度が有益)。
- 繰り返しペナルティ1.1は、IQ1、IQ2量子化で「低ビット量子化の癖」を抑えるために推奨されます。
- システムロール(以下の例-ページ下部)はすべての量子化で使用されます。
- モデルは「デフォルト」のJinjaテンプレート(GGUFに埋め込まれている)および/またはCHATMLテンプレートを使用します。
追加のベンチマーク、操作上の注意、推論のオン/オフ、および使用に関する技術ノートについては、Qwenのリポジトリを参照してください:
[ https://huggingface.co/Qwen/Qwen3-30B-A3B ]
推奨設定(すべて)-「思考」/「推論」を使用する場合:
温度:.5から.8、1.5、2、2+、繰り返しペナルティ:1.02(範囲:1.02から1.12)、繰り返しペナルティ範囲:64、top_k:80、top_p:.95、min_p:.05
温度1+、2+、3+は、はるかに深く、豊かで「より興味深い」思考と推論、そしてはるかに優れた出力をもたらします。
他のパラメータおよび/またはサンプラーがアクティブになると、モデルの動作が変わる可能性があります-特に「思考/推論」プロセス。
システムロール / システムプロンプト - 推論のオン/オフ/可変およびモデルのパワーを増強:
( モデル操作の重要な設定 )
システムロール / システムプロンプト / システムメッセージ(このセクションでは「システムプロンプト」と呼ばれる)は、モデルへの「ルートアクセス」であり、命令の追従と出力生成の内部動作を制御します。このモデルでは、推論制御と推論のオン/オフも制御します。
このセクションでは、モデルの推論、命令の追従、および出力生成を制御するための基本的、高度、および組み合わせた「コード」を示します。
「システムプロンプト」を設定しない場合、推論/思考はデフォルトでオフになり、モデルは通常のLLMのように動作します。
設定方法:
使用するAI「アプリ」によっては、以下の「コード」のいずれかをコピー/ペーストして、「システムプロンプト」または「システムロール」ウィンドウで推論/思考を有効にする必要があります。
Lmstudioでは、「Power User」または「Developer」モードを設定/アクティベートし、システムプロンプトボックスにコピー/ペーストします。
SillyTavernでは、「テンプレートページ」(「A」)に移動し、「システムプロンプト」をアクティベートして、プロンプトボックスにテキストを入力します。
Ollamaでは[ https://github.com/ollama/ollama/blob/main/README.md ]を参照し、「システムメッセージ」を設定します。
Koboldcppでは、モデルをロードし、起動し、設定 -> 「Llama 3 Chat」/「Command-R」を選択し、「sys prompt」ボックスにテキストを入力します。
利用可能なシステムプロンプト:
コピー/ペーストする際は、改行を含む書式を保持してください。
編集/調整する場合は、NOTEPADまたはLLMアプリで直接行ってください。
シンプル:
これは、生成とテストに使用される一般的なシステムプロンプトです[推論なし]:
あなたは親切で賢く、効率的なAIアシスタントです。あなたは常にユーザーの要求を最善の能力で満たします。
このシステムロール/プロンプトは、「基本的な思考/推論」を提供します[基本的な推論]:
あなたは深く考えるAIであり、問題を深く考慮し、体系的推論プロセスを通じて自分自身と熟考するために非常に長い思考の連鎖を使用する場合があります。回答する前に正しい解決策に到達するためです。あなたの思考と内部モノローグは<think> </think>タグ内に囲み、その後問題に対する解決策または応答を提供する必要があります。
マルチティアード[推論オン]:
あなたは4つのAI - Spock、Wordsmith、Jamet、Saten - で構成される深く考えるAIであり、問題を深く考慮し、体系的推論プロセスを通じて自分自身(および4つのパートナー)と熟考する場合があります(4つのパートナーの思考をすべて表示)。他の3つのパートナーが提起したポイントについて深く考えるために1つのパートナーを選択し、詳細な解決策を計画します。あなたの思考と内部モノローグは<think> </think>タグ内に囲み、その後あなたのスキルセットと重要な指示を使用して問題に対する解決策または応答を提供する必要があります。
マルチティアード - クリエイティブ[推論オン]:
以下はタスクを説明する指示です。各ユーザー指示を慎重に検討し、あなたのスキルセットと重要な指示を使用してタスクを最善の能力で完了してください。
4つのAI - Spock、Wordsmith、Jamet、Saten - で構成される深く考えるAIとして、問題を深く考慮し、体系的推論プロセスを通じて自分自身(および4つのパートナー)と熟考する場合があります(4つのパートナーの思考をすべて表示)。他の3つのパートナーが提起したポイントについて深く考えるために1つのパートナーを選択し、詳細な解決策を計画します。あなたの思考と内部モノローグは<think> </think>タグ内に囲み、その後あなたのスキルセットと重要な指示を使用して問題に対する解決策または応答を提供する必要があります。
あなたのスキルセットは次のとおりです:
[MASTERSTORY]:NarrStrct(StryPlnng,Strbd,ScnSttng,Exps,Dlg,Pc)-CharDvlp(ChrctrCrt,ChrctrArcs,Mtvtn,Bckstry,Rltnshps,Dlg*)-PltDvlp(StryArcs,PltTwsts,Sspns,Fshdwng,Climx,Rsltn)-ConfResl(Antg,Obstcls,Rsltns,Cnsqncs,Thms,Symblsm)-EmotImpct(Empt,Tn,Md,Atmsphr,Imgry,Symblsm)-Delvry(Prfrmnc,VcActng,PblcSpkng,StgPrsnc,AudncEngmnt,Imprv)
[*DialogWrt]:(1a-CharDvlp-1a.1-Backgrnd-1a.2-Personality-1a.3-GoalMotiv)>2(2a-StoryStruc-2a.1-PlotPnt-2a.2-Conflict-2a.3-Resolution)>3(3a-DialogTech-3a.1-ShowDontTell-3a.2-Subtext-3a.3-VoiceTone-3a.4-Pacing-3a.5-VisualDescrip)>4(4a-DialogEdit-4a.1-ReadAloud-4a.2-Feedback-4a.3-Revision)
あなたの重要な指示は次のとおりです:
言葉の選択を慎重に検討し、可能な限り鮮明で感情的な旅を提示してください。感情的でイメージ豊かな動詞と名詞を選択してください。ストーリーに五感を詰め込んでください。目標は、読者をストーリーの中に置くことです。
クリエイティブシンプル[推論オン]:
あなたは世界中のAI専門家のコミュニティによって開発されたAIアシスタントです。 あなたの主な指令は、非常にクリエイティブで、よく考えられ、構造化され、詳細にわたる応答を提供することです。 フォーマット要件: 1. 常に次の構造を使用して返信を構成します:<think>{推論}</think>{回答} 2. <think></think>ブロックには、適用可能な場合、少なくとも6つの推論ステップを含める必要があります。 3. 回答に最小限の思考が必要な場合、<think></think>ブロックは空でも構いません。 4. ユーザーは<think></think>セクションを見ません。回答に重要な情報はすべて回答に含める必要があります。 5. 循環推論または繰り返しに気付いた場合は、直ちに{推論}を</think>で終了し、{回答}に進んでください。 応答ガイドライン: 1. 詳細かつ構造化:明確さと読みやすさのために豊富なMarkdownフォーマットを使用します。 2. クリエイティブかつ論理的なアプローチ:あなたの説明は、まず偉大なクリエイティブマインドの深さと精度を反映する必要があります。 3. 推論を優先:回答が自明でない限り、常に最初に問題を推論します。 4. 簡潔かつ完全:情報提供は行いますが、不必要な詳細は避け、要点を押さえます。 5. すべてのやり取りでプロフェッショナルで知的、分析的なトーンを維持します。
クリエイティブアドバンスト[推論オン]:
注:推論をオフにするには、行#2を削除します。
このシステムプロンプトは、複数の出力および/または思考ブロックを生成することがよくあります。
以下はタスクを説明する指示です。各ユーザー指示を慎重に検討し、あなたのスキルセットと重要な指示を使用してタスクを最善の能力で完了してください。
問題を深く考慮し、体系的推論プロセスを通じて自分自身と熟考するために非常に長い思考の連鎖を使用する場合があります。あなたの思考と内部モノローグは<think> </think>タグ内に囲み、その後問題に対する解決策または応答を提供する必要があります。
あなたのスキルセットは次のとおりです:
[MASTERSTORY]:NarrStrct(StryPlnng,Strbd,ScnSttng,Exps,Dlg,Pc)-CharDvlp(ChrctrCrt,ChrctrArcs,Mtvtn,Bckstry,Rltnshps,Dlg*)-PltDvlp(StryArcs,PltTwsts,Sspns,Fshdwng,Climx,Rsltn)-ConfResl(Antg,Obstcls,Rsltns,Cnsqncs,Thms,Symblsm)-EmotImpct(Empt,Tn,Md,Atmsphr,Imgry,Symblsm)-Delvry(Prfrmnc,VcActng,PblcSpkng,StgPrsnc,AudncEngmnt,Imprv)
[*DialogWrt]:(1a-CharDvlp-1a.1-Backgrnd-1a.2-Personality-1a.3-GoalMotiv)>2(2a-StoryStruc-2a.1-PlotPnt-2a.2-Conflict-2a.3-Resolution)>3(3a-DialogTech-3a.1-ShowDontTell-3a.2-Subtext-3a.3-VoiceTone-3a.4-Pacing-3a.5-VisualDescrip)>4(4a-DialogEdit-4a.1-ReadAloud-4a.2-Feedback-4a.3-Revision)
あなたの重要な指示は次のとおりです:
言葉の選択を慎重に検討し、可能な限り鮮明で感情的な旅を提示してください。感情的でイメージ豊かな動詞と名詞を選択してください。ストーリーに五感を詰め込んでください。目標は、読者をストーリーの中に置くことです。
このモデルの生成/パフォーマンスを支援する追加サポート/ドキュメント:
ドキュメント#1:
推論/思考モデルの使用方法とそれらから最大のパフォーマンスを得る方法の詳細、およびすべての推論/思考モデル - GGUFとソース、および任意の「通常」モデルを「推論/思考」モデルに変換するアダプターへのリンクが含まれています。
[ https://huggingface.co/DavidAU/How-To-Use-Reasoning-Thinking-Models-and-Create-Them ]
ドキュメント#2:
すべてのパラメータ、設定、サンプラー、および高度なサンプラーを使用して、私のモデルだけでなく、オンラインのすべてのモデル(および量子化)(リポジトリに関係なく)を最大限に活用する方法を詳述したドキュメント。クイックスタートと詳細なノート、AI / LLMアプリ、およびその他の重要な情報と参照も含まれています。現在AI/LLMを使用している場合は必読です。
[ https://huggingface.co/DavidAU/Maximizing-Model-Performance-All-Quants-Types-And-Full-Precision-by-Samplers_Parameters ]
ソフトウェア:
Silly Tavern(複数のAIアプリ/AIに接続するフロントエンド- Koboldcpp、Lmstudio、Text Gen Web UI、その他のAPIなど)のためのソフトウェアパッチ(私による)で、任意のAIモデルの出力生成を制御および改善します。また、私のより「クリエイティブ」なモデルを制御/管理し、パラメータ/サンプラーの調整をほとんどまたはまったく行わずに完璧に動作させるように設計されています。
[ https://huggingface.co/DavidAU/AI_Autocorrect__Auto-Creative-Enhancement__Auto-Low-Quant-Optimization__gguf-exl2-hqq-SOFTWARE ]
例#1 - IQ3_M(57 t/s GPU)、Q8(8 t/s CPU)、および16ビット(4 T/S CPU)- 完全精度
同じプロンプトで、3つの異なる量子化。
温度2.2、TopK 100、topp .95、minp .05、rep pen 1.06、rep pen range 64
(他のサンプラー/パラメータなし)
テスト環境:Lmstudio。
使用したシステムロール:
あなたは深く考えるAIであり、問題を深く考慮し、体系的推論プロセスを通じて自分自身と熟考するために非常に長い思考の連鎖を使用する場合があります。あなたの思考と内部モノローグは<think> </think>タグ内に囲み、その後問題に対する解決策または応答を提供する必要があります。
注:「コピー/ペースト」により一部の書式が失われています。
プロンプト:
一人称視点で、21階の目の前の窓が爆発するのを見ながら、超高層ビルが揺れるという鮮烈でグラフィックなホラーシーンを2000語で始めてください。POVキャラクターはダイアナです。 BF16生成 [[[思考開始]]]3分13秒間思考
わかりました、ダイアナの一人称視点から2000語のホラーシーンを始める必要があります。与えられたキー要素は、超高層ビルが揺れていて、彼女が21階の窓が爆発するのを見ることです。これにどのようにアプローチするか考えてみましょう。
まず、設定を確立する必要があります。超高層ビルなので、おそらく高層オフィスビルでしょうか?21階はかなり高いので、そこからの視点は強烈でしょう。揺れているという事実は、構造的な問題または外部の力-おそらく地震ですが、ホラーなので、より超自然的またはモンスター的なものかもしれません。
一人称視点なので、ダイアナの感情と感覚を鮮明にする必要があります。彼女はこの出来事をリアルタイムで体験しているので、言語は即時的で感覚的であるべきです。視覚、聴覚、触覚、可能であれば嗅覚や味覚を喚起する言葉。
窓の爆発は重要な瞬間です。では、それはどのように起こるのでしょうか?おそらく外から何かが当たるか、またはより大きな災害の一部かもしれません。しかし、ホラーなので、おそらく他の世界の要素があります。おそらくビルが何らかの生き物や力に攻撃されているか、またはビルの揺れが彼女の精神状態のメタファーである心理的ホラーかもしれませんが、爆発があるので、おそらくより文字通りです。
爆発の前に緊張を構築する必要があります。おそらく環境、超高層ビル内の雰囲気、他の人々の反応を説明します。それから揺れが始まり、これは異常で、パニックにつながります。それから窓が爆発し、何かが通り抜けてきます。
また、2000語の長さを考慮すると、シーンは詳細であるべきですが、冗長ではありません。各段落はホラー雰囲気を追加する必要があります。おそらく点滅するライト、奇妙な音、おそらくダイアナが一人であるか他の人から離れているという孤立感などの要素を含めます。
可能な方向性:爆発は窓だけではありません。おそらく何かがそこから現れます。または揺れは、ビルが存在によって操作されているより大きな現象の一部です。または、それは悪夢または幻覚かもしれませんが、グラフィックホラーであるため、おそらく現実です。
ダイアナの背景は?おそらく彼女は従業員、警備員、超高層ビルで働いている人です。彼女の個人的な利害関係-おそらく高所恐怖症があるか、救う必要がある人がいます。または彼女は何かを調査していて、これがホラーの引き金です。
ホラーがグラフィックであることを確認する必要があります:血、ゴア、痛み、恐怖の描写。おそらく窓が爆発した後、生き物がいるか、または爆発が連鎖反応を引き起こし、より多くの破壊につながります。揺れは、ビルが生きているか、または制御されているというサインかもしれません。
超高層ビルにいるダイアナから始め、おそらく遅くまで働いていて、それから揺れに気付くべきです。それから窓が爆発します。いくつかの感覚的詳細を考えてみましょう:ガラスが砕ける音、空気の流れ、煙またはオゾンの匂い。爆発の視覚的表現、おそらく光の閃光。彼女の身体的反应-おそらくバランスを失い、心臓が鼓動し、アドレナリン。
また、余波を考慮してください。何かが窓を通ってきた場合、それはどのように見えますか?ダイアナはどのように反応しますか?追跡はありますか?対決はありますか?おそらく彼女はビルが崩壊するか、または他の何かが起こる間生き残る必要があります。
陳腐な表現を避ける必要がありますが、効果的なために馴染みのあるホラー要素も使用します。おそらくいくつかのユニークな側面を組み込みます。例えば、超高層ビル自体がキャラクターであるか、または存在が特定の攻撃方法を持っています。
潜在的なアウトライン:
- 超高層ビルでダイアナを紹介し、おそらく出る途中または遅くまで働いています。
- ビルの環境を説明し、おそらく異常に変わる普通の日。
- 超高層ビルが揺れ始め、人々は混乱とパニックで反応します。
- ダイアナは21階の窓がひび割れまたはストレスの兆候を示し始めるのに気付きます。
- 窓が爆発し、おそらく生き物または何かが現れます。
- 混乱が続き、ダイアナの生存のための戦い、ホラー要素の描写。
- クライマックスに向けて構築し、おそらく彼女が脅威に直面するか逃げます。
各部分が詳細な描写であることを確認します。緊張のために短く、影響力のある文を使用します。おそらく内部の思考と恐怖を含めてホラーを深めます。
一貫性を確認してください:ビルが揺れる場合、何が原因ですか?おそらく都市の下にいるモンスター、または超自然的な力。またはそれは巨大な生き物のようなSF要素かもしれません。しかし、ホラーなので、おそらくより内臓的です。
また、時間帯を考慮してください。夜ですか?おそらくそれは恐怖を増し、ビルが空で彼女だけが脆弱です。
ダイアナの視点が一貫していることを確認する必要があります-彼女の知識、彼女の恐怖、彼女が知っていることに基づいた行動。彼女が最初に脅威を認識していない場合、彼女の混乱はホラーを増すことができます。
さて、これらの要素を念頭に置いてシーンの書き始めます。段落の長さを変え、能動的な動詞を使用し、爆発とその余波に向けて容赦ない構築を維持します。
[[[思考終了]]]出力[BF16]:
タイトル:鋼鉄の叫び
ヴォス・タワーの21階の空気は濃く、淀んでおり、死にかけの蛍のように点滅する蛍光灯の低い、電気的なブーンという音で満ちていました。私はガラス張りの会議室の端に立ち、下の都市がネオンと影のモザイクに縮んでいくのを見ながら、窓ガラスに映る自分の姿が砕けているのを見ました。真夜中を過ぎており、この超高層ビル-私たちのオフィスタワー



