G

Gemma 3 12b It Qat 4bit

由mlx-community開發
基於 google/gemma-3-12b-it-qat-q4_0-unquantized 轉換的 MLX 格式模型,支持圖文生成任務
下載量 984
發布時間 : 4/15/2025

模型概述

這是一個經過量化的多模態模型,支持圖文生成任務,能夠在 MLX 框架下高效運行

模型特點

4bit 量化
模型經過 4bit 量化處理,顯著減少內存佔用
MLX 兼容
專為 MLX 框架優化,可在 Apple Silicon 設備上高效運行
多模態支持
支持圖像和文本的聯合處理與生成

模型能力

圖像描述生成
多語言文本生成
圖文聯合理解

使用案例

內容生成
圖像描述
為上傳的圖片生成詳細描述
生成準確反映圖像內容的文本描述
視覺問答
回答關於圖像內容的自然語言問題
提供與圖像相關的準確答案
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase