# 多轮对话

Josiefied Qwen3 30B A3B Abliterated V2 4bit
这是一个基于Qwen3-30B模型转换而来的4位量化版本,适用于MLX框架的文本生成任务。
大型语言模型
J
mlx-community
194
1
Chinda Qwen3 4b Gguf
Apache-2.0
Chinda LLM 4B是iApp Technology推出的前沿泰语模型,基于Qwen3-4B架构构建,为泰国AI生态系统带来先进的思考能力。
大型语言模型
C
iapp
115
1
Generationturkishgpt2 Final
Apache-2.0
基于GPT2微调的土耳其语文本生成模型,适用于自然语言处理和聊天机器人等场景
大型语言模型 Safetensors 其他
G
iamseyhmus7
131
1
Josiefied DeepSeek R1 0528 Qwen3 8B Abliterated V1 Bf16
这是一个基于MLX格式转换的大语言模型,适用于文本生成任务。
大型语言模型
J
mlx-community
2,168
1
Josiefied DeepSeek R1 0528 Qwen3 8B Abliterated V1 8bit
这是一个基于DeepSeek-R1-0528-Qwen3-8B模型转换的MLX格式8位量化版本,适用于文本生成任务。
大型语言模型
J
mlx-community
847
1
Finance Llama 8B
Apache-2.0
基于Llama 3.1 8B微调的金融领域专用模型,擅长金融推理、问答和多轮对话
大型语言模型 Transformers 英语
F
tarun7r
155
2
Kakaocorp.kanana 1.5 8b Instruct 2505 GGUF
Kanana-1.5-8B-Instruct-2505 是由 Kakao Corp 开发的一个 8B 参数规模的指令微调语言模型,适用于文本生成任务。
大型语言模型
K
DevQuasar
483
1
Qwq 32B ArliAI RpR V4
Apache-2.0
QwQ-32B-ArliAI-RpR-v4是ArliAI推出的高性能角色扮演与创意写作模型,基于QwQ-32B微调,专注于减少重复和提升创意输出。
大型语言模型 Transformers 英语
Q
ArliAI
240
16
Bee1reason Arabic Qwen 14B
Apache-2.0
基于Qwen3-14B微调的阿拉伯语逻辑推理大语言模型,专为提升阿拉伯语逻辑推理能力优化
大型语言模型 Transformers 阿拉伯语
B
beetleware
904
9
Gemma 3 27b It 4bit DWQ
这是一个基于Google Gemma 3 27B IT模型转换的4位量化版本,专为MLX框架优化。
大型语言模型
G
mlx-community
102
1
Orihime 12B
Orihime-12B 是一个使用 mergekit 工具合并的预训练语言模型,基于 shisa-v2-mistral-nemo-12b 和 Himeyuri-v0.1-12B 模型融合而成,支持英文和日文。
大型语言模型 Transformers 支持多种语言
O
yamatazen
48
2
Qwen3 4B 4bit DWQ
Apache-2.0
该模型是Qwen3-4B的4位DWQ量化版本,转换为MLX格式,方便使用mlx库进行文本生成。
大型语言模型
Q
mlx-community
517
2
Allenai.olmo 2 0425 1B Instruct GGUF
OLMo-2-0425-1B-Instruct是由AllenAI开发的一个10亿参数规模的指令微调语言模型,专注于文本生成任务。
大型语言模型
A
DevQuasar
220
1
Qwen3 4B GGUF
Apache-2.0
Qwen3-4B是基于Qwen3-4B-Base的GGUF格式模型,适用于文本生成任务。
大型语言模型
Q
Mungert
1,507
7
Qwen3 30B A3B 8bit
Apache-2.0
Qwen3-30B-A3B-8bit 是 Qwen/Qwen3-30B-A3B 模型的 MLX 格式转换版本,支持在 Apple 芯片上高效运行。
大型语言模型
Q
mlx-community
1,553
6
Qwen3 32B MLX 4bit
Apache-2.0
该模型是Qwen3-32B的MLX格式4位量化版本,专为在Apple Silicon设备上高效运行而优化。
大型语言模型
Q
lmstudio-community
32.14k
3
Llama Xlam 2 8b Fc R GGUF
Salesforce开发的8B参数大型动作模型(LAM),专注于将用户意图转化为可执行动作,在多轮对话和工具使用方面表现优异。
大型语言模型 英语
L
eaddario
264
1
Deepthink 1.5B Open PRM Q8 0 GGUF
Apache-2.0
Deepthink-1.5B-Open-PRM是一个1.5B参数的开源语言模型,已转换为GGUF格式以便在llama.cpp中使用。
大型语言模型 英语
D
prithivMLmods
46
2
Deepseek R1 Distill Qwen 7B
DeepSeek-R1-Distill-Qwen-7B 是由 deepseek-ai 发布的蒸馏版大语言模型,基于 Qwen-7B 架构,适用于文本生成任务。
大型语言模型 Transformers
D
mlx-community
1,045
4
Gemma 2 Llama Swallow 27b It V0.1
基于Gemma-2架构的日语增强大语言模型,通过持续预训练显著提升日语能力,同时保留原版英语能力
大型语言模型 Transformers 支持多种语言
G
tokyotech-llm
27
1
GLM 4 32B 0414 EXL3
Apache-2.0
GLM-4-32B-0414是THUDM团队开发的大规模语言模型,基于GLM架构,适用于多种文本生成任务。
大型语言模型
G
owentruong
36
2
Turkish Gemma 9b V0.1
Turkish-Gemma-9b-v0.1是基于Gemma-2-9b开发的土耳其语文本生成模型,通过持续预训练、监督微调(SFT)、直接偏好优化(DPO)和模型合并技术优化而成。
大型语言模型 Safetensors
T
ytu-ce-cosmos
167
18
Bielik 4.5B V3.0 Instruct
Apache-2.0
Bielik-4.5B-v3-Instruct是一款拥有46亿参数的波兰语生成式文本模型,基于Bielik-4.5B-v3进行指令微调,展现出卓越的波兰语理解和处理能力。
大型语言模型 Transformers 其他
B
speakleash
1,121
13
THUDM.GLM 4 32B 0414 GGUF
GLM-4-32B-0414是由THUDM开发的大规模语言模型,具有320亿参数,适用于多种文本生成任务。
大型语言模型
T
DevQuasar
13.15k
5
Deepcogito Cogito V1 Preview Llama 70B 6bit
这是一个基于Llama架构的70B参数大语言模型,经过6位量化处理,适用于文本生成任务。
大型语言模型
D
mlx-community
8,168
1
Unt 8b
Apache-2.0
骆驼模型是一个基于变换器架构的文本生成模型,支持阿塞拜疆语,采用强化学习进行训练。
大型语言模型 Transformers 其他
U
omar07ibrahim
33
2
Mag Picaro 72B
Mag-Picaro的升级版本,由PygmalionAI资助,基于Qwen-2-Instruct微调并与Magnum-V2融合的72B参数模型
大型语言模型 Transformers 英语
M
Delta-Vector
113
3
Qwen2.5 1.5B Instruct
Apache-2.0
专为Gensyn RL Swarm设计的1.5B参数指令微调模型,支持通过点对点强化学习进行本地微调
大型语言模型 Transformers 英语
Q
Gensyn
2.1M
4
Qwen2.5 14B Dpo It Ties
基于Qwen2.5-14B模型通过TIES方法融合的增强版本,专注于指令跟随和对话优化
大型语言模型 Transformers
Q
mergekit-community
30
2
Arrowmint Gemma3 4B YUKI V0.1
专为AI虚拟主播(AI VTuber)对话优化的日语语言模型,基于Google的gemma-3-4b-it开发
大型语言模型 支持多种语言
A
DataPilot
73
6
Xlam 2 3b Fc R Gguf
xLAM-2-3b-fc-r是Salesforce推出的3B参数大型行动模型,专注于将用户意图转化为可执行行动,在多轮对话和工具使用方面表现优异。
大型语言模型 Transformers 英语
X
Salesforce
472
2
Allura Org Gemma 3 Glitter 4B GGUF
基于allura-org/Gemma-3-Glitter-4B转换的GGUF格式模型文件,使用imatrix量化优化性能
大型语言模型 英语
A
ArtusDev
69
1
Doge 320M Instruct
Apache-2.0
Doge 320M 指导版是一个基于动态掩码注意力的轻量级语言模型,采用监督微调(SFT)和直接偏好优化(DPO)训练,适用于问答和对话任务。
大型语言模型 Transformers 英语
D
SmallDoge
12.61k
3
Deepseek Ai.deepseek V3 0324 GGUF
DeepSeek-V3-0324 是一个强大的基础模型,专注于文本生成任务,旨在提供高质量的文本生成能力。
大型语言模型
D
DevQuasar
2,850
2
Cantonesellmchat V1.0 32B
其他
Cantonese LLM Chat v1.0是hon9kon9ize团队开发的第一代粤语大语言模型,在香港相关专业知识和粤语对话方面表现卓越。
大型语言模型 Transformers
C
hon9kon9ize
117
5
Qwq 32B NF4
Apache-2.0
这是Qwen/QwQ-32B模型的4位量化版本,通过BitsAndBytes库进行优化,适用于资源受限环境下的文本生成任务。
大型语言模型 Transformers 英语
Q
ginipick
150
27
Orpheus 3b 0.1 Ft Q8 0 GGUF
Apache-2.0
该模型是基于canopylabs/orpheus-3b-0.1-ft转换的GGUF格式模型,适用于文本生成任务。
大型语言模型 英语
O
PkmX
406
2
Mlabonne Gemma 3 12b It Abliterated GGUF
基于mlabonne/gemma-3-12b-it-abliterated模型的量化版本,使用llama.cpp进行imatrix量化,适用于文本生成任务。
大型语言模型
M
bartowski
7,951
6
Qwen2.5 Bakeneko 32b Instruct V2
Apache-2.0
基于Qwen2.5 Bakeneko 32B的指令调优变体,通过Chat Vector和ORPO优化增强指令跟随能力,在日语MT-Bench上表现出色。
大型语言模型 Transformers 日语
Q
rinna
140
6
Gemma 3 12b It GGUF
Gemma 3 12B 是一种大型语言模型,提供 GGUF 格式的量化版本,适用于本地部署和使用。
大型语言模型 Transformers
G
tensorblock
336
1
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase