# 多轮对话优化

Llama 3 3 Nemotron Super 49B V1 GGUF
其他
Llama-3.3-Nemotron-Super-49B-v1 是一个大型语言模型,基于 Meta Llama-3.3-70B-Instruct 改进,增强了推理能力、人类聊天偏好以及任务执行能力,支持 128K tokens 的上下文长度。
大型语言模型 Transformers 英语
L
unsloth
814
1
Qwq 32B ArliAI RpR V4 GGUF
Apache-2.0
ArliAI推出的高性能角色扮演与创意写作推理模型,基于320亿参数的QwQ-32B基础模型微调,专注于长对话连贯性和创造性输出
大型语言模型 Transformers 英语
Q
ArliAI
1,957
5
Flashvl 2B Dynamic ISS
Apache-2.0
FlashVL是一种优化视觉语言模型(VLMs)以用于实时应用的新方法,旨在实现超低延迟和高吞吐量,同时不牺牲准确性。
图像生成文本 Transformers 支持多种语言
F
FlashVL
117
2
Thedrummer Big Alice 28B V1 GGUF
MIT
Big-Alice-28B-v1是一个28B参数的大语言模型,经过llama.cpp的imatrix量化处理,提供多种量化版本以适应不同硬件需求。
大型语言模型
T
bartowski
2,259
4
Ft Ms Marco MiniLM L12 V2 Claims Reranker V2
这是一个基于cross-encoder/ms-marco-MiniLM-L12-v2微调的交叉编码器模型,用于文本重排序和语义搜索。
文本嵌入
F
Davidsamuel101
769
0
Qwen3 8b Ru
Apache-2.0
基于Qwen3-8B的俄语优化大语言模型,专为俄语文本生成任务设计
大型语言模型 Transformers 其他
Q
attn-signs
30
2
Typhoon2.1 Gemma3 12b
Typhoon2.1-Gemma3-12B 是一个基于Gemma3架构的120亿参数泰语大语言模型,支持128K上下文长度和函数调用功能。
大型语言模型 Safetensors
T
scb10x
159.13k
2
ELYZA Thinking 1.0 Qwen 32B
Apache-2.0
ELYZA-Thinking-1.0-Qwen-32B 是由 ELYZA, Inc 训练的日语推理模型,基于 Qwen/Qwen2.5-32B-Instruct 进行后续训练,增强了日语推理能力。
大型语言模型 Transformers 支持多种语言
E
elyza
2,286
6
Mlabonne Qwen3 14B Abliterated GGUF
这是Qwen3-14B-abliterated模型的量化版本,使用llama.cpp的imatrix选项进行量化,适用于文本生成任务。
大型语言模型
M
bartowski
18.67k
16
Qwen3 4B INT8
Apache-2.0
基于Hugging Face transformers库的4B参数大语言模型,支持文本生成、思维模式切换、工具调用和长文本处理等功能。
大型语言模型 Transformers
Q
zhiqing
1,904
1
Qwen Qwen3 8B GGUF
Apache-2.0
Qwen3-8B的GGUF格式量化版本,由TensorBlock提供,兼容llama.cpp
大型语言模型
Q
tensorblock
452
1
Qwen3 0.6B Bf16
Apache-2.0
这是一个基于Qwen/Qwen3-0.6B转换的MLX格式文本生成模型,支持中文和英文文本生成任务。
大型语言模型
Q
mlx-community
1,812
5
Qwen3 0.6B 8bit
Apache-2.0
Qwen3-0.6B-8bit是基于Qwen/Qwen3-0.6B转换的8位量化版本,适用于MLX框架的文本生成模型。
大型语言模型
Q
mlx-community
2,625
3
Deepcogito Cogito V1 Preview Llama 3B GGUF
基于Llama架构的3B参数语言模型,提供多种量化版本以适应不同硬件需求
大型语言模型
D
tensorblock
162
1
Qwen 2.5 7B Base RAG RL
Qwen-2.5-7B-base-RAG-RL 是一个基于未知数据集从头开始训练的7B参数规模的大语言模型,结合了检索增强生成(RAG)和强化学习(RL)技术。
大型语言模型 Transformers
Q
XXsongLALA
859
7
Multi2convai Corona En Bert
MIT
这是一个针对新冠疫情领域优化的英语Bert模型,由Multi2ConvAI项目开发
文本分类 Transformers 英语
M
inovex
117
0
Nousresearch DeepHermes 3 Llama 3 3B Preview GGUF
基于Llama-3-3B架构的指令微调模型,支持对话、推理和角色扮演等任务,适用于通用人工智能辅助场景。
大型语言模型 英语
N
bartowski
1,033
3
Mistral 7B OpenOrca GGUF
Apache-2.0
Mistral 7B OpenOrca是基于Mistral-7B架构的大语言模型,由OpenOrca团队训练,专注于文本生成任务。
大型语言模型 英语
M
TheBloke
7,792
245
Oumuamua 7b Instruct V2
Apache-2.0
奥陌陌-7b指令调优版v2是一个融合多个预训练语言模型的日语和英语文本生成模型,特别强化了角色扮演和多轮对话能力。
大型语言模型 Transformers 支持多种语言
O
nitky
39
24
Deepseek R1 Distill Llama 70B Abliterated Mlx 4Bit
这是一个基于 Llama-70B 的蒸馏模型,经过 mlx-lm 转换为 MLX 格式,并进行了 4 位量化处理。
大型语言模型 Transformers
D
cs2764
358
1
Gemma 2 Llama Swallow 2b It V0.1
Gemma-2-Llama-Swallow系列是通过对gemma-2模型进行持续预训练构建的,显著增强了日文语言处理能力,同时保留原有英文能力。
大型语言模型 Transformers 支持多种语言
G
tokyotech-llm
61
1
Google Gemma 3 27b It Qat GGUF
基于Google Gemma 3 270亿参数指令调优模型的量化版本,采用量化感知训练(QAT)权重生成,支持多种量化级别以适应不同硬件需求。
大型语言模型
G
bartowski
14.97k
31
Bielik 1.5B V3.0 Instruct
Apache-2.0
Bielik-1.5B-v3-Instruct是一款拥有16亿参数的波兰语生成式文本模型,基于Bielik-1.5B-v3进行指令微调,由SpeakLeash与ACK Cyfronet AGH合作开发。
大型语言模型 Transformers 其他
B
speakleash
780
8
Ultralong Thinking
通过SLERP方法合并的8B参数语言模型,结合了DeepSeek-R1和Nemotron-8B模型的优势
大型语言模型 Transformers
U
mergekit-community
69
2
Gemma3 12b Indic
Apache-2.0
基于谷歌Gemma-3-12B模型,专门针对泰卢固语进行监督式微调的大语言模型,支持高质量的文本生成和对话任务。
大型语言模型 Transformers 其他
G
bharathkumar1922001
129
3
Google Gemma 2 27b It AWQ
Gemma 2 27B IT 是一个基于 AutoAWQ 量化的 4-bit 大语言模型,适用于对话和指令跟随任务。
大型语言模型 Safetensors
G
mbley
122
2
Nvidia Llama 3 1 Nemotron Ultra 253B V1 GGUF
其他
这是NVIDIA Llama-3_1-Nemotron-Ultra-253B-v1模型的量化版本,使用llama.cpp进行量化,支持多种量化类型,适用于不同硬件环境。
大型语言模型 英语
N
bartowski
1,607
3
Meta Llama Llama 4 Scout 17B 16E Instruct Old GGUF
其他
Llama-4-Scout-17B-16E-Instruct是Meta发布的17B参数指令微调大语言模型,经过量化处理以提高运行效率
大型语言模型 支持多种语言
M
bartowski
3,142
30
Tiny Random Llama 4
Apache-2.0
这是Llama-4-Scout-17B-16E-Instruct的轻量版本,为用户提供了一种更为精简的使用选择。
大型语言模型 Transformers
T
llamafactory
1,736
0
Gemma 3 4b It Q4 0
Gemma 3 4B Instruct 是 Google 开发的一个 40 亿参数的大语言模型,专注于文本生成和理解任务。
大型语言模型
G
danchev
24
0
Doge 120M MoE Instruct
Apache-2.0
Doge模型采用动态掩码注意力机制进行序列转换,并可使用多层感知机或跨域专家混合进行状态转换。
大型语言模型 Transformers 英语
D
SmallDoge
240
1
Ablation 141 A128.dpo.armorm.rp Shisa V2 Llama 3.1 8b
基于DPO方法微调的语言模型,适用于文本生成任务
大型语言模型 Transformers
A
shisa-ai
38
2
Mistral 7B UA Grammar GRPO
Apache-2.0
基于Mistral-7B的乌克兰语指令微调模型,使用Unsloth和TRL库进行高效训练
大型语言模型 Transformers 英语
M
thedanmaks
76
2
Llama Xlam 2 8b Fc R Gguf
xLAM-2是基于先进数据合成和训练管道构建的大型动作模型,擅长多轮对话和工具使用,能将用户意图转化为可执行动作。
大型语言模型 Transformers 英语
L
Salesforce
1,809
5
Arrowneo AME 4x3B V0.1 MoE
MIT
一个以成为AI虚拟主播灵魂为目标的混合专家模型,结合了代码生成、指令跟随和多轮对话能力
大型语言模型 支持多种语言
A
DataPilot
51
3
Gemma 3 4b It GGUF
该模型是通过llama.cpp从google/gemma-3-4b-it转换为GGUF格式的,适用于本地部署和推理。
大型语言模型
G
ysn-rfd
62
1
ABEJA QwQ32b Reasoning Japanese V1.0
Apache-2.0
基于Qwen2.5-32B-Instruct开发的日语推理模型,融合了QwQ-32B的ChatVector,优化了日语推理性能。
大型语言模型 Transformers 日语
A
abeja
583
10
Thedrummer Fallen Gemma3 4B V1 GGUF
其他
这是一个基于TheDrummer/Fallen-Gemma3-4B-v1模型的量化版本,使用llama.cpp进行量化处理,适用于文本生成任务。
大型语言模型
T
bartowski
2,106
3
Gemma 3 12b It Mlx 4Bit
Gemma 3 12B IT MLX 4Bit 是基于 unsloth/gemma-3-12b-it 转换而来的 MLX 格式模型,适用于苹果芯片设备。
大型语言模型 Transformers 英语
G
przemekmroczek
23
1
Llama 3.1 Nemotron Nano 8B V1 GGUF
其他
NVIDIA发布的8B参数规模的开源大语言模型,基于Llama-3架构,提供多种量化版本
大型语言模型 英语
L
tensorblock
1,048
4
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase