A.X 4.0 Light Gguf
Apache-2.0
A.X 4.0 Light 是由 SKT AI Model Lab 开发的轻量级大语言模型,基于 Qwen2.5 构建,针对韩语理解和企业部署优化。
大型语言模型
Transformers 支持多种语言

A
mykor
535
2
Qwen3 Embedding 4B 4bit DWQ
Apache-2.0
这是一个基于Qwen3-Embedding-4B模型转换的4位量化版本,专为MLX框架优化
文本嵌入
Q
mlx-community
369
3
Qwen3 0.6B ONNX
Qwen3-0.6B是一个轻量级大语言模型,已转换为ONNX格式以便在网页端使用。
大型语言模型
Transformers

Q
onnx-community
5,051
8
Qwen3 0.6B 4bit
Apache-2.0
这是一个基于Qwen/Qwen3-0.6B模型转换的4位量化版本,适用于MLX框架的高效推理。
大型语言模型
Q
mlx-community
6,015
5
Minicpm O 2 6 Gguf
MiniCPM-o 2.6是一个多模态模型,支持视觉和语言任务,专为llama.cpp设计。
图像生成文本
M
openbmb
5,660
101
Sapie Gemma2 9B IT
基于Google Gemma-2-9b-it模型优化的韩语版本,由Saltware开发,适用于韩语自然语言处理任务。
大型语言模型
Transformers 韩语

S
hometax
171
4
Gemma 2 9b
Gemma是Google推出的轻量级前沿开放模型系列,基于与Gemini相同技术构建,适用于多种文本生成任务。
大型语言模型
Transformers

G
google
45.11k
655
Gemma 2 9b It
Gemma是Google推出的轻量级开放大语言模型系列,基于创建Gemini模型的相同技术构建,适用于多种文本生成任务。
大型语言模型
Transformers

G
google
336.05k
705
Phi 3 Mini 4k Instruct Q4
Phi-3 4k Instruct 是一个轻量级但功能强大的语言模型,经过4位量化处理以降低资源需求。
大型语言模型
Transformers

P
bongodongo
39
1
Meta Llama 3 8B Instruct Q4 K M GGUF
其他
Llama 3 8B 指令模型的 GGUF 量化版本,适用于本地推理,支持高效部署
大型语言模型 英语
M
NoelJacob
1,131
1
Minicpm 2B 128k
MiniCPM是由面壁智能与清华大学自然语言处理实验室联合开发的端侧大语言模型,非词嵌入参数量仅24亿(2.4B),支持128k上下文窗口。
大型语言模型
Transformers 支持多种语言

M
openbmb
145
42
Gemma 1.1 2b It
Gemma是Google推出的轻量级开放模型系列,基于与Gemini相同技术构建,适用于多种文本生成任务。
大型语言模型
Transformers

G
google
71.01k
158
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98