L

Llama3.1 MOE 4X8B Gated IQ Multi Tier COGITO Deep Reasoning 32B GGUF

DavidAUによって開発
調整可能な推論能力を備えた混合専門家(MoE)モデルで、4つの8Bモデルの協調により推論とテキスト生成能力を強化
ダウンロード数 829
リリース時間 : 4/19/2025

モデル概要

このモデルはDeepcogitoの推論能力を統合し、独自のゲートドIQ構造と多層推論システムにより、異なる温度設定下で汎用推論とテキスト生成機能を実現。多言語と幅広い応用シナリオをサポート。

モデル特徴

調整可能な推論能力
システムプロンプトで推論機能のON/OFFや調整が可能、推論能力は最大300%まで増強可能
混合専門家アーキテクチャ
4つの8Bモデルが協調動作(1推論モデル+3非推論モデル)、32Bパラメータ規模の混合専門家システムを形成
マルチモデル制御
特定のタグやキーワードで1つ以上のサブモデルの出力を直接制御可能
長文脈サポート
128kトークンの長文脈処理をサポート
ツール呼び出し能力
Meta Llama 3.1 Instructを内蔵、ツール呼び出し/使用機能をサポート
温度感受性推論
異なる温度設定で異なる深さの推論結果を生成、高温(1.2+)でより豊かな思考を生成

モデル能力

テキスト生成
深層推論
問題解決
創造的執筆
ロールプレイ
多言語処理
ツール呼び出し
論理パズル解答

使用事例

創造的執筆
小説シーン創作
生き生きとした一人称ホラー描写シーンを生成
1000-2000字の詳細なシーン記述を生成可能
コンテンツ改善
生成済みテキストコンテンツを評価・改善
具体的な改善提案と書き直し版を提供
問題解決
論理パズル解答
複雑な論理パズルや推論問題を解決
多段階推論で解決策を導出
ブレインストーミング
創造的なアイデアや解決策を生成
多角的な革新アイデアを提供
教育
学習支援
複雑な概念の理解と問題解決を支援
段階的な説明と推論プロセスを提供
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase