Q

Qwen3 4B Q8 0 64k 128k 256k Context GGUF

DavidAUによって開発
Qwen 4Bモデルの3つの量子化バージョン(Q8_0)、それぞれ64K、128K、256Kのコンテキスト長をサポート、長文生成と深層思考タスクに最適化
ダウンロード数 401
リリース時間 : 4/30/2025

モデル概要

Qwen/Qwen3-4Bを基にした量子化バージョン、設定変更によりコンテキスト長を拡張、長文生成と複雑な推論が必要なタスクに特に適している

モデル特徴

超長文脈サポート
64K/128K/256Kの3種類のコンテキスト長バージョンを提供、通常のモデル制限を突破
深層推論能力
思考連鎖メカニズムを内蔵、詳細な推論プロセスと内面の独白を生成可能
創造的テキスト生成
非常に長く詳細な創造的テキストコンテンツの生成に特別に最適化
量子化最適化
Q8_0量子化技術を採用、性能を維持しながらリソース要件を削減

モデル能力

長文生成
複雑な推論
創造的執筆
シーン描写
思考連鎖表示

使用事例

創造的執筆
長編シーン生成
2000語以上の詳細なシーン描写を生成
サンプルでは生き生きとしたホラーシーン描写能力を展示
ストーリー継続
長編ストーリー内容を自動継続
スタイルの一貫性を保ちつつ豊富な詳細を追加可能
推論タスク
複雑問題分析
<think>タグで詳細な思考プロセスを表示
サンプルでは33秒の深層思考分析を展示
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase