Deepseek R1 0528 FP4
MIT
DeepSeek AI 公司的 DeepSeek R1 0528 模型的量化版本,基于优化的 Transformer 架构的自回归语言模型,可用于商业和非商业用途。
大型语言模型
Safetensors
D
nvidia
372
17
Text To Cypher Gemma 3 27B Instruct 2025.04.0
Gemma 3 27B Instruct 是由 Google 开发的大型语言模型,基于 neo4j/text2cypher-2025v1 数据集微调,专注于将自然语言转换为 Cypher 查询语言。
大型语言模型
Safetensors 英语
T
neo4j
178
5
Mistral NeMo Minitron 8B Base
其他
Mistral-NeMo-Minitron-8B-Base是一个基础的文本生成模型,通过对Mistral-NeMo 12B进行剪枝和蒸馏得到,适用于多种自然语言生成任务。
大型语言模型
Transformers

M
nvidia
7,924
175
Prosparse Llama 2 7b
基于LLaMA-2-7B的激活稀疏化大语言模型,通过ProSparse方法实现高稀疏率(89.32%)且保持原始性能
大型语言模型
Transformers 英语

P
SparseLLM
152
15
Bloom Deepspeed Inference Fp16
Openrail
BLOOM 是一个开源的多语言大语言模型,由 BigScience 项目开发,旨在提供高效的文本生成能力。
大型语言模型
Transformers

B
microsoft
99
12
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98