ERNIE 4.5 21B A3B PT 8bit
Apache-2.0
ERNIE-4.5-21B-A3B-PT-8bit 是百度 ERNIE-4.5-21B-A3B-PT 模型的 8 位量化版本,转换为 MLX 格式,适用于苹果芯片设备。
大型语言模型 支持多种语言
E
mlx-community
123
1
ERNIE 4.5 0.3B PT Bf16
Apache-2.0
ERNIE-4.5-0.3B-PT-bf16 是由百度开发的 ERNIE 系列模型的一个版本,参数规模为 0.3B,使用 bf16 精度进行训练。
大型语言模型 支持多种语言
E
mlx-community
214
1
Llama 3.3 70B Instruct 4bit DWQ
基于Llama 3.3 70B指令微调模型的4位DWQ量化版本,适用于MLX框架的高效推理
大型语言模型 支持多种语言
L
mlx-community
140
2
Gemma 3 27b It 4bit DWQ
这是一个基于Google Gemma 3 27B IT模型转换的4位量化版本,专为MLX框架优化。
大型语言模型
G
mlx-community
102
1
Gemma 3 12b It 4bit DWQ
Gemma 3 12B模型的4位量化版本,适用于MLX框架,支持高效文本生成任务。
大型语言模型
G
mlx-community
554
2
Google Gemma 3 1b It Qat GGUF
基于Google Gemma 3B QAT权重的多种量化版本,适用于本地推理部署
大型语言模型
G
bartowski
1,437
2
Microsoft Phi 4 GPTQ Int4
Phi-4是微软开发的高效小型语言模型,专注于在有限资源下实现高性能推理
大型语言模型
Transformers

M
jakiAJK
1,404
2
SAINEMO Remix
基于多个12B参数模型的混合模型,专注于俄语和英语的角色扮演与文本生成
大型语言模型
Transformers

S
Moraliane
201
36
Mistral Nemo Japanese Instruct 2408
Apache-2.0
这是一个基于Mistral-Nemo-Instruct-2407的日语持续预训练模型,专注于日语文本生成任务。
大型语言模型
Safetensors 支持多种语言
M
cyberagent
1,898
39
Taiwan Tinyllama V1.0 Chat
Apache-2.0
这是专为繁体中文优化的Tinyllama持续预训练版本,基于TinyLlama-1.1B模型,持续预训练数据集包含约20亿个词元。
大型语言模型
Transformers 中文

T
DavidLanz
31
3
Ko Llama3 Luxia 8B
Saltlux AI实验室基于Meta Llama-3-8B优化的韩语大语言模型,扩展了韩语分词器并精选100GB韩语数据预训练
大型语言模型
Transformers 支持多种语言

K
saltlux
2,127
78
Smart Lemon Cookie 7B
Smart-Lemon-Cookie-7B 是一个基于 mergekit 合并的预训练语言模型,结合了多个模型的优势,适用于文本生成和角色扮演任务。
大型语言模型
Transformers 英语

S
FallenMerick
40
4
Tinymixtral 4x248M MoE
Apache-2.0
TinyMixtral-4x248M-MoE 是一个采用混合专家(MoE)架构的小型语言模型,通过融合多个TinyMistral变体而成,适用于文本生成任务。
大型语言模型
Transformers

T
Isotonic
1,310
2
Chatharuhi RolePlaying Qwen 7b
Apache-2.0
基于Qwen-7B微调的角色扮演对话模型,支持多种角色设定和场景对话
大型语言模型
Transformers

C
silk-road
73
2
Gpt2 Conversational Or Qa
Openrail
基于GPT-2架构优化的对话生成模型,专为用户与AI助手交互场景设计
大型语言模型
Transformers 英语

G
Locutusque
153
2
Dialog PeterGriffin
DialoGPT 是一个基于 GPT 架构的对话生成模型,专注于生成自然流畅的对话内容。
大型语言模型
Transformers

D
TropicalJuice
37
1
Dialogpt Small David Mast
DialoGPT 是微软推出的一个基于 GPT 架构的对话生成模型,专门用于生成类似人类的对话响应。
大型语言模型
Transformers

D
Toadally
26
0
Dialogpt Medium Emilybot
DialoGPT 是微软推出的一个基于 GPT 架构的对话生成模型,专注于生成自然流畅的对话响应。
对话系统
Transformers

D
abhisht
15
1
Dialogpt Small C3po
DialoGPT是一个基于GPT架构的对话生成模型,专门用于生成自然流畅的对话响应。
对话系统
Transformers

D
limivan
32
1
Dialogpt Small Jordan
DialoGPT 是微软发布的对话生成预训练模型,基于GPT架构,专为多轮对话任务设计。
大型语言模型
Transformers

D
Apisate
18
0
Dialogpt Medium Morty
DialoGPT 是微软推出的一个基于 GPT 架构的对话生成模型,专门用于生成自然流畅的对话响应。
对话系统
Transformers

D
Brykee
15
0
Dialogpt Small Ricksanchez
基于DialoGPT架构的对话生成模型,以《瑞克和莫蒂》中的瑞克·桑切斯为角色设定,能够生成符合角色风格的对话内容。
大型语言模型
Transformers

D
AnthonyNelson
18
1
Dialogpt Small Aang
DialoGPT 是微软发布的一个基于 GPT-2 的对话生成模型,专门用于生成自然流畅的对话响应。
大型语言模型
Transformers

D
EEE
15
0
Dialogpt Large Quirk
DialoGPT 是微软发布的对话生成模型,基于GPT架构优化用于多轮对话场景。
对话系统
Transformers

D
Exilon
15
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98