Tngtech.deepseek R1T Chimera GGUF
DeepSeek-R1T-Chimera 是一个文本生成模型,基于 tngtech 的技术开发,专注于高效的自然语言处理任务。
大型语言模型
T
DevQuasar
1,407
2
Andrewzh Absolute Zero Reasoner Coder 14b GGUF
基于andrewzh的Absolute_Zero_Reasoner-Coder-14b模型,使用llama.cpp进行imatrix量化的版本,适用于推理和代码生成任务。
大型语言模型
A
bartowski
1,995
5
Kevin 32B GGUF
Kevin 32B是由Cognition AI开发的大语言模型,支持超长上下文(40960 tokens),专注于CUDA内核生成和强化学习任务。
大型语言模型
K
lmstudio-community
297
4
Apriel Nemotron 15b Thinker
MIT
ServiceNow推出的150亿参数高效推理模型,内存占用仅为同类先进模型的一半
大型语言模型
Transformers

A
ServiceNow-AI
1,252
86
Model
MIT
基于编码器-解码器架构的多语言变压器模型,支持文本摘要、翻译和问答系统任务。
大型语言模型
Transformers 其他

M
miscovery
277
0
Qwen3 1.7B ONNX
Qwen3-1.7B 是阿里云推出的1.7B参数规模的开源大语言模型,基于Transformer架构,支持多种自然语言处理任务。
大型语言模型
Transformers

Q
onnx-community
189
1
Lughaat 1.0 8B Instruct
Apache-2.0
Lughaat-1.0-8B-Instruct是基于Llama 3.1 8B架构构建的乌尔都语大模型,专门在最大乌尔都语数据集上训练,在乌尔都语任务中表现优异。
大型语言模型
Transformers 支持多种语言

L
muhammadnoman76
42
2
Trendyol LLM 7B Chat V4.1.0
Apache-2.0
Trendyol LLM v4.1.0 是一款基于 Trendyol LLM base v4.0(在130亿token上继续预训练的Qwen2.5 7B版本)的生成模型,专注于电商领域和土耳其语理解。
大型语言模型 其他
T
Trendyol
854
25
Instella 3B Stage1
其他
Instella是由AMD开发的30亿参数开源语言模型系列,基于AMD Instinct™ MI300X GPU训练,性能超越同规模全开源模型。
大型语言模型
Transformers

I
amd
397
12
Arcee Blitz
Apache-2.0
基于Mistral架构的24B参数模型,通过从DeepSeek模型蒸馏而来,旨在实现快速高效。
大型语言模型
Transformers

A
arcee-ai
4,923
74
Deepseek R1 Distill Qwen 32B Japanese
MIT
由CyberAgent发布的日语大语言模型,基于Qwen-32B蒸馏优化
大型语言模型 日语
D
cyberagent
1,190
250
Qwen 0.5B DPO 5epoch
MIT
Transformers 是一个由 Hugging Face 提供的开源库,用于自然语言处理(NLP)任务,支持多种预训练模型。
大型语言模型
Transformers

Q
JayHyeon
25
1
Llama3.1 Typhoon2 8b Instruct
Llama3.1-Typhoon2-8B是一个基于Transformer架构的泰语大语言模型(指令型),能够处理多种语言任务,为用户提供高效准确的语言交互服务。
大型语言模型
Safetensors
L
scb10x
2,831
7
Qwen2.5 Aloe Beta 7B
Apache-2.0
Qwen2.5-Aloe-Beta-7B是一款开源医疗大语言模型,在多项医疗任务中达到最先进性能。基于Qwen2.5-7B架构微调,训练数据涵盖18亿token的多样化医疗任务。
大型语言模型
Transformers 英语

Q
HPAI-BSC
631
5
Llama 3.1 Tango 70b Bnb 4b
Tango-70B-Instruct 是一款大型语言模型,专为提升西班牙语区域的语言表现而设计。
大型语言模型
Transformers 支持多种语言

L
sandbox-ai
1,768
1
Hymba 1.5B Instruct
其他
基于Hymba-1.5B-Base进行指令微调的15亿参数模型,具备数学推理、函数调用、角色扮演等复杂任务处理能力
大型语言模型
Transformers

H
nvidia
3,547
227
Lumina Mgpt 7B 1024
Lumina-mGPT 是一个多模态自回归模型家族,擅长根据文本描述生成灵活逼真的图像,并能执行多种视觉和语言任务。
文本生成图像
L
Alpha-VLLM
27
9
Lumina Mgpt 7B 768 Omni
Lumina-mGPT 是一个多模态自回归模型系列,擅长根据文本描述生成灵活逼真的图像。
文本生成图像
Transformers

L
Alpha-VLLM
264
7
Yism 34B 0rn
Apache-2.0
YiSM-34B-0rn是一个基于Yi-1.5-34B和Yi-1.5-34B-Chat融合的大语言模型,旨在平衡指令遵循能力和基础模型特性。
大型语言模型
Transformers

Y
altomek
22
2
Persianllama 13B
波斯语首个开创性的大语言模型,拥有130亿参数,基于波斯语维基百科语料库训练,专为多种自然语言处理任务设计。
大型语言模型
Transformers 其他

P
ViraIntelligentDataMining
3,291
11
Neuralllama 3 8b ORPO V0.3
Apache-2.0
基于meta-llama/Meta-Llama-3.1-8B-Instruct优化的语言模型,擅长西班牙语文本生成
大型语言模型
Transformers

N
Kukedlc
11.62k
3
Easy Ko Llama3 8b Instruct V1
Easy-Systems公司首款基于Llama3-8B-Instruct进行韩语微调的LLM模型,支持韩语和英语的文本生成任务。
大型语言模型
Transformers 支持多种语言

E
Easy-Systems
1,804
4
Llama Medx V3
Apache-2.0
这是一个基于Hugging Face Transformers库的大语言模型,适用于自然语言处理任务如文本生成、语言翻译和问答。
大型语言模型
Transformers

L
skumar9
2,598
2
Bahasa 4b Chat
其他
基于qwen-4b模型,使用100亿高质量印尼语文本继续训练而成的印尼语大语言模型
大型语言模型
Transformers 其他

B
Bahasalab
120
5
Prollama Stage 1
Apache-2.0
ProLLaMA是一个基于Llama-2-7b架构的蛋白质大语言模型,专注于多任务蛋白质语言处理。
蛋白质模型
Transformers

P
GreatCaptainNemo
650
2
Phi 3 Mini 4k Instruct GGUF
MIT
Phi-3-Mini-4K-Instruct是一个38亿参数的轻量级前沿开源模型,使用Phi-3数据集训练而成,注重高质量和推理密集特性。
大型语言模型
P
brittlewis12
170
1
Biomistral MedMNX
BioMistral-MedMNX 是一个通过融合多个预训练模型而创建的生物医学领域专用语言模型,采用 DARE 和 TIES 融合方法优化性能。
大型语言模型
Transformers

B
BioMistral
3,509
4
Wizardlaker 7B
Apache-2.0
巫师湖7B是新一代WizardLM 2 7B模型与定制DolphinLake模型的融合模型,表现优异。
大型语言模型
Transformers

W
Noodlz
22
2
Mamba 1.4b Instruct Hf
该模型信息不足,无法提供具体介绍
大型语言模型
Transformers

M
scottsus
60
1
Spivavtor Large
Spivavtor-Large是一个基于指令微调的乌克兰语文本编辑模型,专注于文本改写、简化、语法修正和连贯性优化等任务。
大型语言模型
Transformers 其他

S
grammarly
169
9
Sanskritayam Gpt
该模型基于Transformers库构建,具体功能和用途需要进一步信息确认。
大型语言模型
Transformers

S
thtskaran
17
1
E.star.7.b
Apache-2.0
基于Mistral架构的7B参数大语言模型,使用Unsloth和TRL库高效训练,在多项基准测试中表现优异。
大型语言模型
Transformers 英语

E
liminerity
86
2
T LLaMA
T-LLaMA是基于LLaMA2-7B模型训练的藏文大语言模型,构建了包含22亿藏文字符的语料库,在文本分类、生成和摘要任务中表现良好。
大型语言模型
Transformers 其他

T
Pagewood
19
2
Gemma 7B Instruct Function Calling
CC
Gemma是谷歌推出的轻量级尖端开源大语言模型系列,基于Gemini技术体系开发,支持英文文本生成任务。
大型语言模型
Transformers

G
InterSync
17
6
Gemma 2b
Gemma是Google推出的轻量级开源大语言模型系列,基于创建Gemini模型的技术构建,提供20亿参数的基础版本。
大型语言模型
G
google
402.85k
994
Kafkalm 70B German V0.1 GGUF
KafkaLM 70B German V0.1 是一个基于Llama2架构的大型德语语言模型,由Seedbox开发。该模型专门针对德语进行了优化,适用于各种文本生成任务。
大型语言模型 德语
K
TheBloke
1,826
33
Phixtral 2x2 8
MIT
phixtral-2x2_8 是首个基于两个 microsoft/phi-2 模型构建的混合专家模型(MoE),其表现优于每个单独的专家模型。
大型语言模型
Transformers 支持多种语言

P
mlabonne
178
148
Kaori 70b V1
kaori-70b-v1 是一个基于LLaMA2架构的大语言模型,由Kaeri和Jenti团队使用Open-Platypus、dolphin和OpenOrca数据集进行微调。
大型语言模型
Transformers

K
KaeriJenti
907
2
Athnete 13B GPTQ
Athnete是一个基于Alpaca格式的13B参数大语言模型,适用于角色扮演、情感角色扮演及一般用途。
大型语言模型
Transformers

A
TheBloke
24
4
Lamini T5 738M
LaMini-T5-738M是基于t5-large在LaMini-instruction数据集上微调而成的指令微调模型,参数量为738M,属于LaMini-LM系列模型之一。
大型语言模型
Transformers 英语

L
MBZUAI
2,966
49
- 1
- 2
- 3
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98