Baidu ERNIE 4.5 0.3B PT GGUF
Apache-2.0
基於百度ERNIE-4.5-0.3B-PT模型的量化版本,通過llama.cpp工具進行優化,減少模型大小並提升運行效率。
大型語言模型 支持多種語言
B
bartowski
314
3
Skywork Skywork SWE 32B GGUF
Apache-2.0
Skywork-SWE-32B是一個32B參數的大語言模型,經過Llamacpp imatrix量化,可在資源受限環境下高效運行。
大型語言模型
S
bartowski
921
2
Deepseek Ai DeepSeek R1 Distill Qwen 14B GGUF
DeepSeek-R1-Distill-Qwen-14B 是一個經過優化的14B參數規模的大語言模型,由DeepSeek AI發佈,基於Qwen架構蒸餾而來,提供多種GGUF量化版本以提升性能。
大型語言模型
D
featherless-ai-quants
237
1
Deepseek R1 0528 Qwen3 8B AWQ 4bit
MIT
DeepSeek-R1-0528-Qwen3-8B的AWQ量化版本,適用於特定場景下的高效推理。
大型語言模型
Transformers

D
hxac
179
2
Tngtech.deepseek R1T Chimera GGUF
DeepSeek-R1T-Chimera 是一個文本生成模型,基於 tngtech 的技術開發,專注於高效的自然語言處理任務。
大型語言模型
T
DevQuasar
1,407
2
Qwen3 30B A3B Gptq 8bit
Apache-2.0
Qwen3 30B A3B是一個採用GPTQ方法進行8位量化處理的大語言模型,適用於高效推理場景。
大型語言模型
Transformers

Q
btbtyler09
301
2
Smoothie Qwen3 4B
Apache-2.0
順滑Qwen是一款輕量級的調整工具,能夠平滑Qwen及類似模型中的詞元概率,增強多語言的平衡生成能力。
大型語言模型
Transformers 英語

S
dnotitia
2,189
2
Qwen3 4B GGUF
Apache-2.0
Qwen3-4B是基於Qwen3-4B-Base的GGUF格式模型,適用於文本生成任務。
大型語言模型
Q
Mungert
1,507
7
React Native Executorch Qwen 3
Apache-2.0
Qwen 3 是一個基於 ExecuTorch 運行時的語言模型,提供不同規模的量化與未量化版本。
大型語言模型
R
software-mansion
732
1
Qwen3 1.7B ONNX
Qwen3-1.7B 是阿里雲推出的1.7B參數規模的開源大語言模型,基於Transformer架構,支持多種自然語言處理任務。
大型語言模型
Transformers

Q
onnx-community
189
1
Qwq DeepSeek R1 SkyT1 Flash Lightest 32B
這是一個基於Qwen2.5-32B的合併模型,融合了DeepSeek-R1-Distill-Qwen-32B、QwQ-32B和Sky-T1-32B-Flash的特點,旨在提升性能。
大型語言模型
Transformers

Q
sm54
14
4
PEG
PEG是一種通過漸進式學習實現穩健文本檢索的模型,基於負樣本的難度級別調整損失權重。
文本嵌入
Transformers 中文

P
TownsWu
36
29
3b Zh Ft Research Release Q8 0 GGUF
Apache-2.0
本模型是基於canopylabs/3b-zh-ft-research_release轉換而來的GGUF格式模型,適用於中文文本生成任務。
大型語言模型 中文
3
cludyw
20
0
GLM 4 32B 0414 EXL3
Apache-2.0
GLM-4-32B-0414是THUDM團隊開發的大規模語言模型,基於GLM架構,適用於多種文本生成任務。
大型語言模型
G
owentruong
36
2
THUDM.GLM 4 32B 0414 GGUF
GLM-4-32B-0414是由THUDM開發的大規模語言模型,具有320億參數,適用於多種文本生成任務。
大型語言模型
T
DevQuasar
13.15k
5
Instancecap Captioner
其他
基於Qwen2.5-VL-7B-Instruct在instancevid數據集上微調的視覺語言模型,專注於實例級圖像描述生成
圖像生成文本
Transformers

I
AnonMegumi
14
1
Deepseek V3 5layer
DeepSeek-V3的5層簡化開發版本,適用於輕量級任務和快速實驗。
大型語言模型
Transformers

D
chwan
30.01k
1
Qwen2.5 14B YOYO V2
Qwen2.5-14B-YOYO-V5是基於Qwen2.5-14B基礎模型,通過融合多個預訓練語言模型而成的增強版本。
大型語言模型
Transformers

Q
YOYO-AI
14
2
YOYO O1 32B
YOYO-O1-32B是一個融合了開源社區頂尖32B推理模型與代碼模型的多功能大語言模型,採用SCE融合技術構建。
大型語言模型
Transformers

Y
YOYO-AI
25
2
Gemma 3 27b Pt Q4 K M GGUF
該模型是基於Google的gemma-3-27b-pt模型通過llama.cpp轉換為GGUF格式的版本,適用於本地推理任務。
大型語言模型
G
deltanym
30
1
Qwen2.5 VL 7B Instruct GPTQ Int4
Apache-2.0
Qwen2.5-VL-7B-Instruct-GPTQ-Int4是基於Qwen2.5-VL-7B-Instruct模型進行非官方GPTQ-Int4量化的版本,支持圖文到文本的多模態任務。
圖像生成文本
Transformers 支持多種語言

Q
hfl
872
3
Qwen2 VL 7B Captioner Relaxed Q4 K M GGUF
Apache-2.0
這是一個基於Qwen2-VL-7B-Captioner-Relaxed模型轉換的GGUF格式模型,專門用於圖像轉文本任務。
圖像生成文本 英語
Q
alecccdd
88
1
Deepseek Ai.deepseek R1 Distill Llama 8B GGUF
DeepSeek-R1-Distill-Llama-8B 是一個基於 Llama 架構的 8B 參數規模的大型語言模型,經過蒸餾訓練優化,適用於文本生成任務。
大型語言模型
D
DevQuasar
320
3
Llama 3.3 70B Instruct Abliterated Finetuned GPTQ Int8
這是基於Llama-3.3-70B-Instruct模型的GPTQ量化8位版本,經過微調優化,適用於對話推理任務。
大型語言模型
Transformers 支持多種語言

L
huihui-ai
7,694
12
Moxin 7B LLM
Apache-2.0
Moxin 7B是一款強大的開源大語言模型,提供基礎模型和聊天模型等多種類型,在多個常見數據集上展現出了良好的性能。
大型語言模型
Transformers

M
moxin-org
134
17
Llama 3.2 Taiwan 1B
Llama-3.2-Taiwan-1B 是一個基於 Meta 的 Llama-3.2-1B 模型的多語言文本生成模型,特別支持中文(臺灣地區)及其他多種語言。
大型語言模型
Transformers 支持多種語言

L
lianghsun
47
4
Glm Edge V 5b
其他
GLM-Edge-V-5B是一個50億參數的多模態模型,支持圖像和文本輸入,能夠執行圖像理解和文本生成任務。
圖像生成文本
G
THUDM
4,357
12
Glm Edge 1.5b Chat
其他
GLM-Edge-1.5B-Chat 是一個基於 GLM 架構的 15 億參數規模的聊天模型,適用於中文對話場景。
大型語言模型
Safetensors
G
THUDM
891
17
Summllama3.2 3B GGUF
SummLlama3.2-3B是基於Llama3架構優化的3.2B參數摘要生成模型,提供多種量化版本以適應不同硬件需求。
大型語言模型
S
tensorblock
95
1
Skywork Critic Llama 3.1 8B
其他
天工評判系列模型是先進的評判模型,擅長進行成對偏好評估,能夠對輸入的一對內容進行比較和評估,給出細緻的判斷。
大型語言模型
PyTorch
S
Skywork
1,376
12
Minicpm Embedding
MiniCPM-Embedding 是基於 MiniCPM-2B-sft-bf16 基礎模型開發的嵌入模型,專注於檢索任務,支持中英文雙語。
文本嵌入
Transformers 支持多種語言

M
openbmb
315
245
Linfusion 1 5
LinFusion是一個基於Diffusers庫的文本生成圖像模型,支持通過文本描述生成高質量圖像。
圖像生成
L
Yuanshi
37
15
Sl Persian Ser With Gwo And Hubert
Apache-2.0
這是一個基於Apache-2.0許可證的開源模型,具體信息需要補充
大型語言模型
Transformers

S
amirahmadian16
20
0
Qwen2
其他
通義千問Qwen2系列的大語言模型,包含多個參數規模的模型,從5億到720億參數,支持指令調優。
大型語言模型
Q
cortexso
132
1
Emotion LLaMA
Apache-2.0
這是一個基於Apache-2.0許可證發佈的模型,具體信息暫不可知。
大型語言模型
Transformers

E
ZebangCheng
213
4
Qwen2 7B Int4 Inc
Apache-2.0
基於Qwen2-7B的INT4自動量化模型,由英特爾auto-round工具生成,適用於高效推理任務
大型語言模型
Transformers

Q
Intel
48
6
Yi 1.5 9B
Apache-2.0
Yi-1.5是Yi模型的升級版本,在編程、數學、推理和指令遵循能力方面表現更出色,同時保持了優秀的語言理解、常識推理和閱讀理解能力。
大型語言模型
Transformers

Y
01-ai
6,140
48
Llava Llama 3 8b V1 1 GGUF
基於Meta-Llama-3-8B-Instruct和CLIP-ViT-Large-patch14-336微調的LLaVA模型,支持圖像轉文本任務
圖像生成文本
L
MoMonir
138
5
Llava Llama 3 8b V1 1 Gguf
基於Meta-Llama-3-8B-Instruct和CLIP-ViT-Large-patch14-336模型微調的多模態模型,支持圖像理解和文本生成
圖像生成文本
L
xtuner
9,484
216
Llava Llama 3 8b V1 1 Q5 K M GGUF
該模型是基於xtuner/llava-llama-3-8b-v1_1轉換的GGUF格式版本,適用於llama.cpp框架,支持圖像文本到文本的轉換任務。
圖像生成文本
L
djward888
20
2
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98