Mlabonne Gemma 3 4b It Abliterated GGUF
模型概述
該模型是Gemma-3-4B-IT的量化版本,支持視覺任務,提供多種量化選項以適應不同硬件需求。
模型特點
多種量化選項
提供從BF16到Q2_K的多種量化版本,適應不同硬件和性能需求。
視覺任務支持
包含MMPROJ文件,支持視覺任務處理。
高效推理
使用llama.cpp優化,支持在LM Studio等平臺高效運行。
模型能力
圖像文本生成
多模態理解
文本生成
使用案例
多模態應用
圖像描述生成
根據輸入圖像生成描述性文本。
視覺問答
回答關於圖像內容的問題。
文本生成
對話系統
構建基於多模態輸入的對話系統。
🚀 Llama.cpp對mlabonne的gemma - 3 - 4b - it - abliterated的量化版本
本項目是對mlabonne的gemma - 3 - 4b - it - abliterated模型進行量化處理後的成果。通過量化,能夠在不同硬件條件下更高效地運行該模型。
基本信息
屬性 | 詳情 |
---|---|
量化者 | bartowski |
任務類型 | 圖像文本到文本 |
許可證 | gemma |
基礎模型 | mlabonne/gemma - 3 - 4b - it - abliterated |
🚀 快速開始
本項目使用 llama.cpp 的 b4896 版本進行量化。
- 原始模型地址:https://huggingface.co/mlabonne/gemma - 3 - 4b - it - abliterated
- 所有量化版本均使用 imatrix 選項,並採用 此處 的數據集。
運行方式
✨ 主要特性
提示格式
<bos><start_of_turn>user
{system_prompt}
{prompt}<end_of_turn>
<start_of_turn>model
嵌入/輸出權重
部分量化版本(如 Q3_K_XL、Q4_K_L 等)採用標準量化方法,將嵌入和輸出權重量化為 Q8_0,而非默認值。
ARM/AVX 信息
- 之前,會下載 Q4_0_4_4/4_8/8_8 版本,這些版本的權重在內存中交錯排列,以提高 ARM 和 AVX 機器的性能。
- 現在,有了“在線重新打包”功能,詳情見 此 PR。如果使用 Q4_0 且硬件適合重新打包權重,會自動進行。
- 從 llama.cpp 構建版本 b4282 開始,無法運行 Q4_0_X_X 文件,需使用 Q4_0。
- 另外,根據 此 PR,可以使用 IQ4_NL 獲得更好的質量,它也會為 ARM 重新打包權重,但目前僅支持 4_4。加載時間可能會變長,但整體速度會提高。
📦 安裝指南
使用 huggingface - cli 下載
點擊查看下載說明
首先,確保已安裝 huggingface - cli:
pip install -U "huggingface_hub[cli]"
然後,可指定要下載的特定文件:
huggingface-cli download bartowski/mlabonne_gemma-3-4b-it-abliterated-GGUF --include "mlabonne_gemma-3-4b-it-abliterated-Q4_K_M.gguf" --local-dir ./
如果模型大於 50GB,會被拆分為多個文件。要將它們全部下載到本地文件夾,運行:
huggingface-cli download bartowski/mlabonne_gemma-3-4b-it-abliterated-GGUF --include "mlabonne_gemma-3-4b-it-abliterated-Q8_0/*" --local-dir ./
可以指定新的本地目錄(如 mlabonne_gemma - 3 - 4b - it - abliterated - Q8_0),也可以全部下載到當前目錄(./)。
💻 使用示例
下載文件
可從以下表格中選擇要下載的文件(非整個分支):
如何選擇文件
點擊查看詳情
Artefact2 提供了一篇很棒的文章,帶有展示各種性能的圖表,可查看 此處。
首先,要確定能運行多大的模型。這需要了解自己有多少內存(RAM)和/或顯存(VRAM)。
- 如果希望模型運行儘可能快,應讓整個模型適應 GPU 的顯存。選擇文件大小比 GPU 總顯存小 1 - 2GB 的量化版本。
- 如果追求絕對最高質量,將系統內存和 GPU 顯存相加,然後選擇文件大小比該總和小 1 - 2GB 的量化版本。
接下來,需要決定使用“I - 量化”還是“K - 量化”。
- 如果不想過多思考,選擇 K - 量化版本,格式為“QX_K_X”,如 Q5_K_M。
- 如果想深入瞭解,可以查看這個非常有用的特性圖表:llama.cpp 特性矩陣。
- 一般來說,如果目標是低於 Q4 的量化,並且使用 cuBLAS(Nvidia)或 rocBLAS(AMD),應考慮 I - 量化版本,格式為 IQX_X,如 IQ3_M。這些是較新的版本,相同大小下性能更好。
- I - 量化版本也可在 CPU 上使用,但比對應的 K - 量化版本慢,因此需要在速度和性能之間做出權衡。
- I - 量化版本與 Vulcan(也是 AMD)不兼容,所以如果使用 AMD 顯卡,要確認是使用 rocBLAS 版本還是 Vulcan 版本。撰寫本文時,LM Studio 有支持 ROCm 的預覽版,其他推理引擎也有針對 ROCm 的特定版本。
📄 許可證
本項目使用 gemma 許可證。
致謝
感謝 kalomaze 和 Dampf 在創建 imatrix 校準數據集方面的幫助。 感謝 ZeroWw 在嵌入/輸出實驗方面的啟發。 感謝 LM Studio 對我工作的贊助。
如果想支持我的工作,請訪問我的 ko - fi 頁面:https://ko - fi.com/bartowski
Clip Vit Large Patch14
CLIP是由OpenAI開發的視覺-語言模型,通過對比學習將圖像和文本映射到共享的嵌入空間,支持零樣本圖像分類
圖像生成文本
C
openai
44.7M
1,710
Clip Vit Base Patch32
CLIP是由OpenAI開發的多模態模型,能夠理解圖像和文本之間的關係,支持零樣本圖像分類任務。
圖像生成文本
C
openai
14.0M
666
Siglip So400m Patch14 384
Apache-2.0
SigLIP是基於WebLi數據集預訓練的視覺語言模型,採用改進的sigmoid損失函數,優化了圖像-文本匹配任務。
圖像生成文本
Transformers

S
google
6.1M
526
Clip Vit Base Patch16
CLIP是由OpenAI開發的多模態模型,通過對比學習將圖像和文本映射到共享的嵌入空間,實現零樣本圖像分類能力。
圖像生成文本
C
openai
4.6M
119
Blip Image Captioning Base
Bsd-3-clause
BLIP是一個先進的視覺-語言預訓練模型,擅長圖像描述生成任務,支持條件式和非條件式文本生成。
圖像生成文本
Transformers

B
Salesforce
2.8M
688
Blip Image Captioning Large
Bsd-3-clause
BLIP是一個統一的視覺-語言預訓練框架,擅長圖像描述生成任務,支持條件式和無條件式圖像描述生成。
圖像生成文本
Transformers

B
Salesforce
2.5M
1,312
Openvla 7b
MIT
OpenVLA 7B是一個基於Open X-Embodiment數據集訓練的開源視覺-語言-動作模型,能夠根據語言指令和攝像頭圖像生成機器人動作。
圖像生成文本
Transformers 英語

O
openvla
1.7M
108
Llava V1.5 7b
LLaVA 是一款開源多模態聊天機器人,基於 LLaMA/Vicuna 微調,支持圖文交互。
圖像生成文本
Transformers

L
liuhaotian
1.4M
448
Vit Gpt2 Image Captioning
Apache-2.0
這是一個基於ViT和GPT2架構的圖像描述生成模型,能夠為輸入圖像生成自然語言描述。
圖像生成文本
Transformers

V
nlpconnect
939.88k
887
Blip2 Opt 2.7b
MIT
BLIP-2是一個視覺語言模型,結合了圖像編碼器和大型語言模型,用於圖像到文本的生成任務。
圖像生成文本
Transformers 英語

B
Salesforce
867.78k
359
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98