A.X 4.0 Light Gguf
Apache-2.0
A.X 4.0 Light 是由 SKT AI Model Lab 開發的輕量級大語言模型,基於 Qwen2.5 構建,針對韓語理解和企業部署優化。
大型語言模型
Transformers 支持多種語言

A
mykor
535
2
Qwen3 Embedding 4B 4bit DWQ
Apache-2.0
這是一個基於Qwen3-Embedding-4B模型轉換的4位量化版本,專為MLX框架優化
文本嵌入
Q
mlx-community
369
3
Qwen3 0.6B ONNX
Qwen3-0.6B是一個輕量級大語言模型,已轉換為ONNX格式以便在網頁端使用。
大型語言模型
Transformers

Q
onnx-community
5,051
8
Qwen3 0.6B 4bit
Apache-2.0
這是一個基於Qwen/Qwen3-0.6B模型轉換的4位量化版本,適用於MLX框架的高效推理。
大型語言模型
Q
mlx-community
6,015
5
Minicpm O 2 6 Gguf
MiniCPM-o 2.6是一個多模態模型,支持視覺和語言任務,專為llama.cpp設計。
圖像生成文本
M
openbmb
5,660
101
Sapie Gemma2 9B IT
基於Google Gemma-2-9b-it模型優化的韓語版本,由Saltware開發,適用於韓語自然語言處理任務。
大型語言模型
Transformers 韓語

S
hometax
171
4
Gemma 2 9b
Gemma是Google推出的輕量級前沿開放模型系列,基於與Gemini相同技術構建,適用於多種文本生成任務。
大型語言模型
Transformers

G
google
45.11k
655
Gemma 2 9b It
Gemma是Google推出的輕量級開放大語言模型系列,基於創建Gemini模型的相同技術構建,適用於多種文本生成任務。
大型語言模型
Transformers

G
google
336.05k
705
Phi 3 Mini 4k Instruct Q4
Phi-3 4k Instruct 是一個輕量級但功能強大的語言模型,經過4位量化處理以降低資源需求。
大型語言模型
Transformers

P
bongodongo
39
1
Meta Llama 3 8B Instruct Q4 K M GGUF
其他
Llama 3 8B 指令模型的 GGUF 量化版本,適用於本地推理,支持高效部署
大型語言模型 英語
M
NoelJacob
1,131
1
Minicpm 2B 128k
MiniCPM是由面壁智能與清華大學自然語言處理實驗室聯合開發的端側大語言模型,非詞嵌入參數量僅24億(2.4B),支持128k上下文窗口。
大型語言模型
Transformers 支持多種語言

M
openbmb
145
42
Gemma 1.1 2b It
Gemma是Google推出的輕量級開放模型系列,基於與Gemini相同技術構建,適用於多種文本生成任務。
大型語言模型
Transformers

G
google
71.01k
158
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98