QWEN 3B INSTRUC Medical COT SFT 2kstep 4kcol
Apache-2.0
基于Qwen2.5架构的3B参数指令微调模型,使用Unsloth和Huggingface TRL库优化训练速度
大型语言模型
Transformers 英语

Q
hailong18102002
30
1
Gemma 2 9b It Abliterated GGUF
基于Gemma 2.9B的量化版本,使用llama.cpp进行优化,适合在LM Studio中运行。
大型语言模型 英语
G
bartowski
3,941
37
Space Voice Label Detect Beta
Apache-2.0
基于Qwen2.5-VL-3B模型的微调版本,使用Unsloth和Huggingface TRL库进行训练,推理速度提升2倍
文本生成图像
Transformers 英语

S
devJy
38
1
Olmo 2 0325 32B Instruct 4bit
Apache-2.0
这是一个基于allenai/OLMo-2-0325-32B-Instruct模型转换的4位量化版本,专为MLX框架优化,适用于文本生成任务。
大型语言模型
Transformers 英语

O
mlx-community
270
10
Mistral Small Instruct 2409 Abliterated
其他
这是一个基于mistralai/Mistral-Small-Instruct-2409的消融模型,主要用于文本生成任务。
大型语言模型
Transformers 支持多种语言

M
byroneverson
11.24k
14
GIGABATEMAN 7B GGUF
GIGABATEMAN-7B 是一个基于 Mistral 架构的 7B 参数大型语言模型,专注于文本生成任务。
大型语言模型 英语
G
mradermacher
115
3
Blockchainlabs 7B Merged Test2 4 Prune Sft 4bit DPO Orca
这是一个经过剪枝和DPO训练的7B参数规模的小型LLM,专为设备端用途优化
大型语言模型
Transformers 英语

B
alnrg2arg
18
2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98