Unireason Qwen3 14B RL I1 GGUF
Apache-2.0
UniReason-Qwen3-14B-RL 是一个经过量化的多领域适用模型,特别擅长文本生成和数学推理任务。
大型语言模型
Transformers 英语

U
mradermacher
302
1
Brtgpt 124m Base
BrtGPT-124M-Base是一个基于大量英文语料预训练的基础模型,可免费使用,解决了开源模型使用繁琐和对处理能力要求高的问题。
大型语言模型
Transformers

B
Bertug1911
2,128
1
Uzmi Gpt
Apache-2.0
GPT-2是由OpenAI开发的开源语言模型,基于Transformer架构,能够生成连贯的文本。
大型语言模型 英语
U
rajan3208
30
2
Orpheus 3b 0.1 Ft Q8 0 GGUF
Apache-2.0
该模型是基于canopylabs/orpheus-3b-0.1-ft转换而来的GGUF格式模型,适用于文本生成任务。
大型语言模型 英语
O
dodgeinmedia
22
0
Deepseek R1 Chinese Law
Apache-2.0
基于Unsloth和Huggingface TRL库训练的Llama模型,推理速度提升2倍
大型语言模型
Transformers 英语

D
corn6
74
2
Qwq 32B Bnb 4bit
Apache-2.0
Qwen/QwQ-32B的4位量化版本,基于BitsAndBytes库实现,适用于资源受限环境下的文本生成任务。
大型语言模型
Transformers 英语

Q
fantos
115
4
Travelbot
Apache-2.0
基于Unsloth和Huggingface TRL库训练的Llama模型,推理速度提升2倍
大型语言模型
Transformers 英语

T
kitty528
9,146
2
Llama 3.2 11B Vision Medical
Apache-2.0
基于unsloth/Llama-3.2-11B-Vision-Instruct微调的模型,使用Unsloth和Huggingface的TRL库进行训练,速度提升了2倍。
文本生成图像
Transformers 英语

L
Varu96
25
1
Mistral Small 24B Instruct 2501 GPTQ G128 W4A16 MSE
Apache-2.0
这是mistralai/Mistral-Small-24B-Instruct-2501模型的4位量化版本,由ConfidentialMind.com量化,实现了更小、更快的模型,同时性能损失极小。
大型语言模型 英语
M
ConfidentialMind
93
1
Model
Apache-2.0
这是一个经过微调的Phi-4模型,通过Unsloth和TRL库实现了2倍的训练加速,专注于文本生成任务。
大型语言模型
Transformers 英语

M
namrateshInfra
101
1
Krx Qwen2 7b It X
Apache-2.0
基于unsloth/Qwen2-7B-Instruct微调的指令跟随模型,使用Unsloth和TRL库训练,速度提升2倍
大型语言模型
Transformers 支持多种语言

K
2point5p
18
2
Gguf Q5 K M NanoLM 1B Instruct V2
Gpl-3.0
这是一个基于NanoLM-1B-Instruct-v2转换的GGUF格式模型,适用于文本生成任务。
大型语言模型 英语
G
Felladrin
49
1
Nanolm 1B Instruct V1.1
Gpl-3.0
NanoLM-1B-Instruct-v1.1是一个10亿参数规模的小型指令微调语言模型,支持多领域英文文本生成任务。
大型语言模型 支持多种语言
N
Mxode
24
1
Llama3.1 8b Instruct Summarize Q4 K M
Apache-2.0
基于Meta-Llama-3.1-8B-Instruct的4位量化版本,使用Unsloth和Huggingface TRL库进行训练,速度提升2倍。
大型语言模型 英语
L
raaec
107
0
Mini Magnum 12b V1.1 GGUF
其他
Mini-Magnum-12B-V1.1 是一个基于 intervitens/mini-magnum-12b-v1.1 基础模型构建的文本生成模型,支持英文,采用特定的量化方式。
大型语言模型 英语
M
Reiterate3680
252
2
Smollm 135M 4bit
Apache-2.0
这是一个4位量化的135M参数小型语言模型,适用于资源受限环境下的文本生成任务。
大型语言模型
Transformers 英语

S
mlx-community
312
1
Athena 70B L3 I1 GGUF
Athena-70B-L3 是一个70B参数规模的大型语言模型,支持英文文本生成任务,采用参数高效微调技术。
大型语言模型
Transformers 英语

A
mradermacher
141
4
Llmc Gpt2 774M 150B
MIT
这是一个基于GPT-2架构的774M参数语言模型,使用FineWeb数据集中的1500亿token进行训练。
大型语言模型
Transformers 英语

L
mdouglas
18
1
Chewy Lemon Cookie 11B GGUF
Chewy-Lemon-Cookie-11B 是一个基于 Mistral 架构的 11B 参数大语言模型,专注于文本生成和角色扮演任务。
大型语言模型 英语
C
mradermacher
296
2
Shotluck Holmes 1.5
Apache-2.0
Shot2Story-20K 是一个基于图像生成文本的模型,能够将输入的图像转换为连贯的文本描述或故事。
图像生成文本
Transformers 英语

S
RichardLuo
158
3
Retnet 1.3B 100B
MIT
基于SlimPajama-627B数据集训练的文本生成模型,采用视网膜网络架构。
大型语言模型 支持多种语言
R
fla-hub
57
1
Matter 0.1 7B GGUF
Apache-2.0
Matter 7B是基于Mistral 7B微调的模型,专为文本生成任务设计,支持对话式交互和函数调用。
大型语言模型 英语
M
munish0838
127
1
Lzlv Limarpv3 L2 70b GGUF
这是Doctor-Shotgun/lzlv-limarpv3-l2-70b模型的静态量化版本,提供了多种量化选项以适应不同需求。
大型语言模型 英语
L
mradermacher
67
3
Litellama 460M 1T
MIT
LiteLlama是Meta AI的LLaMa 2精简版,仅含4.6亿参数并使用1万亿token训练的开源语言模型
大型语言模型
Transformers 英语

L
ahxt
1,225
162
Rose 20B GGUF
Rose 20B 是一个基于LLaMA架构的20B参数大型语言模型,采用Alpaca风格的指令模板,适用于文本生成任务。
大型语言模型 英语
R
TheBloke
612
27
Tinymistral 248M GGUF
Apache-2.0
TinyMistral-248M 是一个基于 Mistral 7B 模型预训练的小型语言模型,参数规模缩减至约2.48亿,主要用于下游任务的微调。
大型语言模型 英语
T
afrideva
211
5
Opus V0 7B GGUF
Opus V0 7B是由DreamGen开发的基于Mistral架构的7B参数语言模型,专注于文本生成任务。
大型语言模型 英语
O
TheBloke
2,467
13
Tinyllama 1.1B Alpaca Chat V1.5 GGUF
Apache-2.0
基于TinyLlama-1.1B微调的轻量级对话模型,使用Alpaca数据集训练,适用于英文文本生成任务
大型语言模型 英语
T
afrideva
44
2
Yarn Mistral 7B 128k AWQ
Apache-2.0
Yarn Mistral 7B 128K是一款针对长上下文优化的先进语言模型,通过YaRN扩展方法在长上下文数据上进一步预训练,支持128k令牌的上下文窗口。
大型语言模型
Transformers 英语

Y
TheBloke
483
72
Gpt2 Demo
其他
GPT-2是一个基于Transformer架构的自监督预训练语言模型,擅长文本生成任务。
大型语言模型
Transformers

G
demo-leaderboard
19.21k
1
Tinystories Gpt2 3M
这是一个小型GPT-2模型,在TinyStories V2数据集上预训练,具有3M可训练参数,表现出良好的文本生成连贯性。
大型语言模型
Transformers 英语

T
calum
637
7
Phi Hermes 1.3B
其他
基于Hermes数据集微调的Phi-1.5模型,主要用于文本生成任务
大型语言模型
Transformers 英语

P
teknium
45
44
Mythalion 13B GGUF
Mythalion 13B是由PygmalionAI开发的13B参数规模的大语言模型,基于Llama架构,专注于文本生成和指令跟随任务。
大型语言模型 英语
M
TheBloke
2,609
67
Qcammel 70 X GGUF
其他
qCammel 70是基于Llama 2架构的大语言模型,由augtoma开发,TheBloke进行量化处理。该模型专注于文本生成任务,提供多种量化版本以适应不同硬件需求。
大型语言模型 英语
Q
TheBloke
1,264
4
Flan T5 Base Samsum
Apache-2.0
基于Google的flan-t5-base模型在samsum对话摘要数据集上微调的文本生成模型,擅长对话摘要任务
大型语言模型
Transformers 英语

F
achimoraites
15
3
Opt 2.7b
其他
OPT是由Meta AI推出的开源大语言模型系列,参数规模从1.25亿到1750亿,旨在促进大规模语言模型的开放研究。
大型语言模型 英语
O
facebook
53.87k
83
Opt 1.3b
其他
OPT是由Meta AI推出的开源大语言模型系列,对标GPT-3架构,旨在促进大模型研究的可复现性和社会影响探讨。
大型语言模型 英语
O
facebook
196.07k
168
Gpt Neo 1.3B
MIT
GPT-Neo 1.3B是由EleutherAI开发的13亿参数自回归语言模型,基于GPT-3架构设计,擅长文本生成任务
大型语言模型 英语
G
EleutherAI
208.93k
298
Gpt Neo 125m
MIT
GPT-Neo 125M是基于GPT-3架构的Transformer模型,由EleutherAI开发,参数量为1.25亿,主要用于英语文本生成任务。
大型语言模型 英语
G
EleutherAI
150.96k
204
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98