Qwen3 30B A3B AWQ
Apache-2.0
Qwen3-30B-A3B-AWQ 是基于 Qwen3-30B-A3B 模型的 AWQ 量化版本,适用于文本生成任务,支持思维模式和非思维模式切换。
大型语言模型
Transformers

Q
cognitivecomputations
14.45k
12
Llama4some SOVL 4x8B L3 V1
这是一个通过mergekit合并多个预训练语言模型得到的专家混合模型,旨在创造最不受约束的文本生成能力。
大型语言模型
Transformers

L
saishf
22
3
Chicka Mixtral 3x7b
MIT
基于3个Mistral架构模型的专家混合大语言模型,擅长对话、代码和数学任务
大型语言模型
Transformers

C
Chickaboo
77
3
Wizardlm 2 8x22B
Apache-2.0
WizardLM-2 8x22B是微软WizardLM团队开发的最先进专家混合(MoE)模型,在复杂对话、多语言、推理和代理任务上性能显著提升。
大型语言模型
Transformers

W
dreamgen
28
31
Wizardlm 2 8x22B
Apache-2.0
WizardLM-2 8x22B 是微软AI开发的下一代最先进大语言模型,采用专家混合(MoE)架构,在复杂对话、多语言、推理和智能体任务上表现优异。
大型语言模型
Transformers

W
alpindale
974
400
Zephyr Orpo 141b A35b V0.1
Apache-2.0
Zephyr 141B-A39B是基于Mixtral-8x22B-v0.1微调的大型语言模型,采用ORPO对齐算法训练,旨在成为有用的助手。
大型语言模型
Transformers

Z
HuggingFaceH4
3,382
267
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98