Openchat 3.6 8b 20240522 IMat GGUF
模型概述
該模型是基於 openchat-3.6-8b 的量化版本,適用於文本生成任務,支持多種量化選項以優化性能和資源使用。
模型特點
多種量化選項
提供了從 Q8_0 到 IQ1_S 等多種量化類型,滿足不同硬件和性能需求。
IMatrix 優化
部分量化類型使用了 IMatrix 數據集進行優化,提升了低量化類型的性能。
輕量級部署
量化後的模型體積更小,適合在資源有限的設備上運行。
模型能力
文本生成
對話系統
數學問題求解
使用案例
日常對話
健康飲食建議
提供香蕉和火龍果的組合食用方法。
生成具體的食譜建議,如香蕉火龍果奶昔和沙拉。
教育輔助
數學問題求解
解答簡單的線性方程。
正確解答如 2x + 3 = 7 的方程。
🚀 openchat-3.6-8b-20240522-IMat-GGUF
本項目是對 openchat/openchat-3.6-8b-20240522
模型進行 Llama.cpp imatrix
量化處理後的版本。提供了不同量化類型的文件,方便用戶根據自身需求進行下載和使用。
屬性 | 詳情 |
---|---|
基礎模型 | openchat/openchat-3.6-8b-20240522 |
推理 | 否 |
庫名稱 | gguf |
許可證 | llama3 |
任務類型 | 文本生成 |
量化者 | legraphista |
標籤 | 量化、GGUF、imatrix、量化處理、imat、imatrix、靜態 |
原始模型:openchat/openchat-3.6-8b-20240522
原始數據類型:BF16
(bfloat16
)
量化工具:llama.cpp b3006
IMatrix 數據集:點擊查看
📦 文件信息
IMatrix
狀態:✅ 可用
鏈接:點擊下載
常用量化文件
文件名 | 量化類型 | 文件大小 | 狀態 | 是否使用 IMatrix | 是否拆分 |
---|---|---|---|---|---|
openchat-3.6-8b-20240522.Q8_0.gguf | Q8_0 | 8.54GB | ✅ 可用 | ❌ 靜態 | ❌ 否 |
openchat-3.6-8b-20240522.Q6_K.gguf | Q6_K | 6.60GB | ✅ 可用 | ❌ 靜態 | ❌ 否 |
openchat-3.6-8b-20240522.Q4_K.gguf | Q4_K | 4.92GB | ✅ 可用 | ✅ IMatrix | ❌ 否 |
openchat-3.6-8b-20240522.Q3_K.gguf | Q3_K | 4.02GB | ✅ 可用 | ✅ IMatrix | ❌ 否 |
openchat-3.6-8b-20240522.Q2_K.gguf | Q2_K | 3.18GB | ✅ 可用 | ✅ IMatrix | ❌ 否 |
所有量化文件
🚀 快速開始
使用 huggingface-cli 下載
如果你還沒有安裝 huggingface-cli
,可以使用以下命令進行安裝:
pip install -U "huggingface_hub[cli]"
下載你需要的特定文件:
huggingface-cli download legraphista/openchat-3.6-8b-20240522-IMat-GGUF --include "openchat-3.6-8b-20240522.Q8_0.gguf" --local-dir ./
如果模型文件較大,可能已被拆分為多個文件。要將它們全部下載到本地文件夾,請運行以下命令:
huggingface-cli download legraphista/openchat-3.6-8b-20240522-IMat-GGUF --include "openchat-3.6-8b-20240522.Q8_0/*" --local-dir openchat-3.6-8b-20240522.Q8_0
# 合併 GGUF 文件的方法請參考 FAQ
💻 使用示例
簡單聊天模板
<|begin_of_text|><|start_header_id|>GPT4 Correct User<|end_header_id|>
Can you provide ways to eat combinations of bananas and dragonfruits?<|eot_id|><|start_header_id|>GPT4 Correct Assistant<|end_header_id|>
Sure! Here are some ways to eat bananas and dragonfruits together:
1. Banana and dragonfruit smoothie: Blend bananas and dragonfruits together with some milk and honey.
2. Banana and dragonfruit salad: Mix sliced bananas and dragonfruits together with some lemon juice and honey.<|eot_id|><|start_header_id|>GPT4 Correct User<|end_header_id|>
What about solving an 2x + 3 = 7 equation?<|eot_id|>
帶系統提示的聊天模板
<|begin_of_text|><|start_header_id|>System<|end_header_id|>
You are a helpful AI.<|eot_id|><|start_header_id|>GPT4 Correct User<|end_header_id|>
Can you provide ways to eat combinations of bananas and dragonfruits?<|eot_id|><|start_header_id|>GPT4 Correct Assistant<|end_header_id|>
Sure! Here are some ways to eat bananas and dragonfruits together:
1. Banana and dragonfruit smoothie: Blend bananas and dragonfruits together with some milk and honey.
2. Banana and dragonfruit salad: Mix sliced bananas and dragonfruits together with some lemon juice and honey.<|eot_id|><|start_header_id|>GPT4 Correct User<|end_header_id|>
What about solving an 2x + 3 = 7 equation?<|eot_id|>
使用 Llama.cpp 進行推理
llama.cpp/main -m openchat-3.6-8b-20240522.Q8_0.gguf --color -i -p "prompt here (according to the chat template)"
❓ 常見問題解答
為什麼 IMatrix 沒有應用到所有地方?
根據 這項調查,似乎只有較低的量化類型能從 imatrix
輸入中受益(根據 hellaswag
結果)。
如何合併拆分的 GGUF 文件?
- 確保你已經有
gguf-split
工具:- 要獲取
gguf-split
,請訪問 https://github.com/ggerganov/llama.cpp/releases。 - 從最新版本中下載適合你係統的壓縮包。
- 解壓壓縮包後,你應該能找到
gguf-split
工具。
- 要獲取
- 找到你的 GGUF 拆分文件所在的文件夾(例如:
openchat-3.6-8b-20240522.Q8_0
)。 - 運行以下命令進行合併:
gguf-split --merge openchat-3.6-8b-20240522.Q8_0/openchat-3.6-8b-20240522.Q8_0-00001-of-XXXXX.gguf openchat-3.6-8b-20240522.Q8_0.gguf
請確保將 gguf-split
指向拆分文件中的第一個文件。
如果你有任何建議,歡迎在 @legraphista 聯繫我!
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98