Qwen3 8B Q4 K M GGUF
Apache-2.0
這是Qwen3-8B模型的GGUF格式版本,適用於llama.cpp框架,支持文本生成任務。
大型語言模型
Transformers

Q
ufoym
342
3
Qwen3 1.7B 4bit
Apache-2.0
Qwen3-1.7B-4bit是通義千問1.7B模型的4位量化版本,已轉換為MLX框架格式,便於在Apple Silicon設備上高效運行。
大型語言模型
Q
mlx-community
11.85k
2
Qwen3 0.6B 4bit
Apache-2.0
這是一個基於Qwen/Qwen3-0.6B模型轉換的4位量化版本,適用於MLX框架的高效推理。
大型語言模型
Q
mlx-community
6,015
5
Llama 3 8B Instruct Abliterated TR
LLaMA-3-8B-Instruct的消融版本,通過特定技術手段強制模型用土耳其語響應
大型語言模型
Transformers 其他

L
Metin
25
5
Bitnet B1.58 2B 4T GGUF
MIT
微軟開發的1.58位量化大語言模型,專為高效推理設計,提供IQ2_BN和IQ2_BN_R4兩種量化版本
大型語言模型
B
tdh111
1,058
4
Granite 3.3 8b Instruct Q8 0 GGUF
Apache-2.0
該模型是基於IBM Granite-3.3-8B指令微調模型轉換而來的GGUF格式模型,適用於文本生成任務。
大型語言模型
G
NikolayKozloff
36
2
Gemma 2 2b It Tool Think
MIT
基於google/gemma-2b-it微調的文本生成模型,支持工具調用思考過程
大型語言模型
Transformers

G
langdai
36
2
Qwen2.5 0.5B Instruct
Apache-2.0
專為Gensyn強化學習群設計的0.5B參數指令微調模型,支持本地微調訓練
大型語言模型
Transformers 英語

Q
Gensyn
2.4M
5
T0 S1 14B
Qwen2.5-14B-Instruct 是基於 Qwen2.5 架構的 140 億參數指令微調大語言模型,在 s1K 數據集上進行了微調優化。
大型語言模型
Transformers

T
TomasLaz
47
2
Orpheus 3b 0.1 Ft Q6 K GGUF
Apache-2.0
這是一個基於canopylabs/orpheus-3b-0.1-ft轉換的GGUF格式模型,適用於文本轉語音任務。
大型語言模型 英語
O
TheVisitorX
191
0
Cisimi V0.1
CiSiMi是一個早期的文本轉音頻模型原型,專為資源受限環境設計,能夠在CPU上高效運行,實現高級語音合成。
語音合成 英語
C
KandirResearch
202
7
Gemma 3 12b It Q5 K S GGUF
這是Google Gemma 3B模型的GGUF量化版本,適用於本地推理,支持文本生成任務。
大型語言模型
G
NikolayKozloff
16
1
Gemma 3 27b It Q4 K M GGUF
該模型是基於Google的Gemma 3 27B IT模型轉換而來的GGUF格式版本,適用於本地推理。
大型語言模型
G
paultimothymooney
299
2
Llama Joycaption Alpha Two Hf Llava FP8 Dynamic
MIT
這是對fancyfeast開發的Llama JoyCaption Alpha Two模型進行的FP8壓縮版本,使用llm-compressor工具實現,併兼容vllm框架。
圖像生成文本 英語
L
JKCHSTR
248
1
Deepseek R1 Distill Llama 8B GGUF
DeepSeek-R1是基於Llama架構的8B參數推理模型,採用1.58位+2位動態量化技術提升精度
大型語言模型 英語
D
unsloth
37.60k
266
Deepseek R1 Distill Llama 70B GGUF
DeepSeek-R1-Distill-Llama-70B是DeepSeek團隊基於Llama架構開發的70B參數大語言模型,通過蒸餾技術優化,支持高效推理和微調。
大型語言模型 英語
D
unsloth
11.51k
79
Internlm3 8b Instruct Gguf
Apache-2.0
InternLM3-8B-Instruct 模型的 GGUF 格式版本,適用於 llama.cpp 框架,支持多種量化版本。
大型語言模型 英語
I
internlm
1,072
26
Tanuki 8B Dpo V1.0
Apache-2.0
Tanuki-8B是一個8B參數的日語大語言模型,經過SFT和DPO優化對話任務,由GENIAC松尾研究室開發
大型語言模型
Transformers 支持多種語言

T
weblab-GENIAC
1,143
41
Meta Llama 3.1 8B Instruct GGUF
Llama-3.1-8B-Instruct 是由 Meta 發佈的一個 8B 參數規模的大語言模型,專注於指令跟隨任務。
大型語言模型
M
DevQuasar
485
3
Llama 3 Firefunction V2
FireFunction V2 是一款具有商業可行許可的最先進函數調用模型,基於 Llama 3 訓練,支持並行函數調用和良好的指令遵循。
大型語言模型
Transformers

L
fireworks-ai
1,361
145
Wizardlm 2 7B Abliterated
Apache-2.0
WizardLM-2-7B的消融版本,經過正交化處理以優化特定行為模式
大型語言模型
Transformers

W
fearlessdots
237
14
Verius LLM 8b V0.2
VeriUS LLM 是一款基於 llama3-8B、支持土耳其語的指令跟隨大語言模型
大型語言模型
Transformers

V
VeriUs
2,763
4
Llama 3 Korean 8B
基於Bllossom 8B模型微調的韓語大語言模型,支持安全對話生成
大型語言模型
Transformers

L
sh2orc
1,793
2
Mistral 7B Banking V2
Apache-2.0
基於Mistral-7B微調的銀行業務專用大語言模型,專注於銀行交易和客戶支持場景
大型語言模型
Transformers

M
bitext
97
1
Llama 3 8B Instruct 64k
基於 winglian/Llama-3-8b-64k-PoSE 開發的 8B 參數大語言模型,採用 PoSE 技術擴展上下文長度至 64k,並經過 DPO 微調優化
大型語言模型
Transformers 英語

L
MaziyarPanahi
91
12
Llama 3 8b It Ko Chang
Apache-2.0
基於Meta-Llama-3-8B-Instruct的韓語指令調優版本,專門優化了韓語理解和生成能力
大型語言模型
Transformers 韓語

L
lcw99
18
10
Dolphinhermespro ModelStock
Apache-2.0
該模型是通過懶人合併工具包合併Dolphin-2.8和Hermes-2-Pro兩個7B參數模型而成的混合模型,基於Mistral-7B架構。
大型語言模型
Transformers

D
Kquant03
14
1
Minicpm MoE 8x2B
MiniCPM-MoE-8x2B是一款基於Transformer架構的混合專家(MoE)語言模型,採用8個專家模塊設計,每個token激活2個專家進行處理。
大型語言模型
Transformers

M
openbmb
6,377
41
Mistral 7B OpenOrca Q4 K M GGUF
Apache-2.0
該模型是基於Open-Orca/Mistral-7B-OpenOrca轉換而來的GGUF格式模型,適用於文本生成任務。
大型語言模型 英語
M
munish0838
81
2
Breeze 7B Instruct V1 0
Apache-2.0
Breeze-7B-Instruct是基於Mistral-7B構建的繁體中文優化語言模型,專為指令跟隨任務設計,支持問答、多輪對話等場景。
大型語言模型
Transformers 支持多種語言

B
MediaTek-Research
1,388
61
Mistral 7B Instruct V0.2 Sparsity 20 V0.1
Apache-2.0
Mistral-7B-Instruct-v0.2是基於Mistral-7B-Instruct-v0.1改進的指令微調大語言模型,採用Wanda剪枝方法壓縮至2%稀疏度,無需重新訓練即可保持競爭力性能。
大型語言模型
Transformers

M
wang7776
80
1
Mistral 7B Instruct V0.2
Apache-2.0
Mistral-7B-Instruct-v0.2是基於Mistral-7B-v0.2進行指令微調的大語言模型,支持32k上下文窗口,移除了滑動窗口注意力機制。
大型語言模型
Transformers

M
mistralai
1.1M
2,737
Sciphi Mistral 7B 32k
MIT
基於Mistral-7B-v0.1微調的大型語言模型,專注於提升科學推理與教育能力
大型語言模型
Transformers

S
SciPhi
143
72
Codellama 13b Oasst Sft V10
基於Meta的CodeLlama 13B大語言模型進行Open-Assistant微調的版本,支持英語,採用新的RoPE Theta值(1e6替代1e4)。
大型語言模型
Transformers 英語

C
OpenAssistant
159
69
Mythomax L2 13B GPTQ
其他
MythoMax L2 13B是由Gryphe開發的大語言模型,基於Llama 2架構,專注於角色扮演和創意文本生成。
大型語言模型
Transformers 英語

M
TheBloke
5,324
204
Vicuna 7b V1.5
Vicuna 是基於 Llama 2 微調訓練而成的聊天助手,訓練數據來源於 ShareGPT 的用戶共享對話。
大型語言模型
Transformers

V
lmsys
255.23k
335
BELLE 7B 2M
Apache-2.0
BELLE是基於Bloomz-7b1-mt模型微調的中英文指令理解與生成模型,具備優秀的中文處理能力
大型語言模型
Transformers 支持多種語言

B
BelleGroup
55
186
Distilbert Base Squad2 Custom Dataset
基於Distilbert_Base微調的SQuAD2.0及自定義問答數據集模型,專注於高效問答任務
問答系統
Transformers

D
superspray
17
0
Gpt2 Model De
這是一個基於GPT-2架構的德語語言模型,專門針對德語文本生成任務進行了訓練。
大型語言模型
Transformers 德語

G
Tanhim
18
3
Bert Italian Finedtuned Squadv1 It Alfa
意大利語BERT基礎版在意大利語SQuAD上微調,用於問答下游任務
問答系統 其他
B
mrm8488
286
14
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98