Pocketdoc Dans PersonalityEngine V1.3.0 12b GGUF
Apache-2.0
一个基于llama.cpp量化的12B参数多语言大语言模型,支持角色扮演、故事创作及多领域专业任务
大型语言模型
P
bartowski
1,027
3
Pocketdoc Dans PersonalityEngine V1.3.0 24b GGUF
Apache-2.0
一个多语言、多用途的大型语言模型,支持多种专业领域和通用任务,适用于角色扮演、故事创作、编程等多种场景。
大型语言模型
P
bartowski
2,543
4
Tiiuae.falcon H1 34B Instruct GGUF
Falcon-H1-34B-Instruct 是一个34B参数规模的大型语言模型,专注于指令遵循任务。
大型语言模型
T
DevQuasar
319
1
Pocketdoc Dans SakuraKaze V1.0.0 12b GGUF
Apache-2.0
基于PocketDoc/Dans-SakuraKaze-V1.0.0-12b的Llamacpp imatrix量化版本,支持多种量化类型,适用于文本生成任务。
大型语言模型 英语
P
bartowski
788
3
Pathumma Llm Text 1.0.0
Apache-2.0
PathummaLLM-text-1.0.0-7B 是一个支持泰语、中文和英语的70亿参数大语言模型,基于OpenThaiLLM-Prebuilt进行指令微调,优化了RAG、约束生成和推理任务。
大型语言模型
PyTorch 支持多种语言
P
nectec
2,362
10
Titulm Llama 3.2 3b V2.0
基于Llama-3.2-3B架构优化的孟加拉语大语言模型,扩展了42K孟加拉语标记并进行了微调,在孟加拉语理解和生成任务中表现优异。
大型语言模型
Transformers 其他

T
hishab
2,669
5
Llama 3.1 Minitron 4B Width Base
其他
Llama-3.1-Minitron-4B-Width-Base是一个基础文本到文本模型,通过对Llama-3.1-8B进行剪枝获得,适用于多种自然语言生成任务。
大型语言模型
Transformers 英语

L
nvidia
10.15k
190
Minitron 8B Base
其他
Minitron-8B-Base是通过剪裁Nemotron-4 15B获得的大型语言模型,采用蒸馏持续训练方法,相比从头训练节省了40倍的训练token和1.8倍的计算成本。
大型语言模型
Transformers 英语

M
nvidia
5,725
66
Tinymistral 6x248M Instruct
Apache-2.0
基于专家混合(MoE)架构微调的语言模型,通过LazyMergekit框架融合多个模型,在指令任务中表现出色。
大型语言模型
Transformers 英语

T
M4-ai
1,932
9
K2t
MIT
基于T5的模型,能够将输入的关键词转换为完整的句子。
文本生成
Transformers 英语

K
gagan3012
78
3
Gpt2 Medium Indonesian
基于印尼语的GPT-2中型预训练模型,采用因果语言建模目标训练,适用于印尼语文本生成任务。
大型语言模型 其他
G
flax-community
100
6
Geppetto
针对意大利语预训练的GPT2模型,117M参数,基于意大利语维基百科和ItWac语料库训练
大型语言模型 其他
G
LorenzoDeMattei
78.22k
15
Hebrew Gpt Neo Tiny
MIT
基于GPT-Neo架构的希伯来语文本生成模型,专为希伯来语优化设计
大型语言模型 其他
H
Norod78
40
1
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98