G

Google Gemma 3 1b It Qat GGUF

Developed by bartowski
Google Gemma 3B QAT重みに基づく多様な量子化バージョン、ローカル推論展開に適応
Downloads 1,437
Release Time : 4/19/2025

Model Overview

このモデルはGoogle Gemma-3-1B命令調整モデルの量子化バージョンコレクションで、llama.cppのimatrix手法を使用して最適化された量子化を施し、様々なハードウェア環境に適応するための多精度レベルをサポート

Model Features

量子化認識トレーニング最適化
Google公式QAT重みに基づき、従来の量子化手法に比べてより良い精度保持を実現
マルチ精度選択
BF16から2bitまでの20種類の量子化オプションを提供し、様々なハードウェア要件に対応
ARM互換性
特定の量子化バージョン(Q4_0など)はARM CPUでのオンライン再パッケージング推論をサポート
imatrix最適化
llama.cppのimatrix機能を使用したデータ認識量子化により、低bit量子化の品質を向上

Model Capabilities

命令追従
マルチターン対話
テキスト補完
知識質問応答

Use Cases

ローカル展開アプリケーション
パーソナルアシスタント
ローカルデバイスで動作する個別化AIアシスタント
低遅延応答、プライバシー保護
教育ツール
オフライン環境での学習支援とQ&Aシステム
エッジコンピューティング
モバイル端末推論
スマートフォンなどのモバイルデバイスでAI機能を実行
最適化された量子化モデルによりハードウェア要件を低減
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase