Gemma 3 12B FornaxV.2 QAT CoT Q4 0 GGUF
これは8GiBのコンシューマー向けGPUで動作することを目的とした実験的な小型思考モデルで、汎用推論能力を備えています。教師あり微調整(SFT)と高品質な推論軌跡トレーニングにより、モデルは推論能力を様々なタスクに汎化できます。
ダウンロード数 98
リリース時間 : 5/6/2025
モデル概要
Gemma FornaxはGemma 3ベースの12Bパラメーターモデルで、汎用推論能力に焦点を当てており、コーディング、数学、その他のタスクに適しています。QATチェックポイントトレーニングにより、Q4_0量子化下で使用しても品質低下が発生しません。
モデル特徴
汎用推論能力
多様で高品質な推論軌跡の教師あり微調整(SFT)により、モデルはプログラミングや数学に限定されず、多くのタスクに推論能力を汎化できます。
低リソース要件
モデルは8GiBのコンシューマー向けGPUで動作するように設計されており、Q4_0量子化下では約6GiBのメモリのみを必要とします。
思考モード切替
Qwen 3シリーズモデルと同様に、Gemma Fornaxは思考モードを有効または無効にでき、システムプロンプト内の`/think`または`/no_think`コマンドで制御します。
QAT最適化
QATチェックポイントに基づくトレーニングにより、モデルはQ4_0量子化下で使用しても品質低下が発生しません。
モデル能力
テキスト生成
汎用推論
数学問題解決
プログラミング支援
使用事例
教育と学習
数学問題解答
モデルは複雑な数学問題を解決し、詳細な推論プロセスを提供できます。
思考モードを通じて詳細な解答ステップを生成します。
プログラミング開発
コード生成と最適化
モデルはコードスニペットの生成や既存コードの最適化に使用できます。
効率的で実行可能なコードを生成します。
クリエイティブライティング
ストーリー生成
モデルはクリエイティブなストーリーやキャラクター設定を生成できます。
一貫性があり創造性豊かなテキストコンテンツを生成します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98