Q

Qwen1.5 MoE A2.7B GGUF

由 tensorblock 开发
通义千问1.5版本的混合专家(MoE)模型,参数规模为2.7B,提供多种量化版本的GGUF格式文件
下载量 163
发布时间 : 11/11/2024

模型简介

这是一个基于Qwen1.5架构的混合专家模型,提供多种量化版本的GGUF格式文件,适用于本地推理场景。

模型特点

多种量化选项
提供从Q2_K到Q8_0共12种不同量化级别的模型文件,满足不同场景需求
高效推理
混合专家架构在保持模型性能的同时提高了推理效率
llama.cpp兼容
所有模型文件与llama.cpp兼容,便于本地部署和使用

模型能力

中文文本生成
对话系统
文本理解

使用案例

对话系统
智能客服
部署为在线客服系统,回答用户问题
内容创作
文本生成
辅助创作文章、故事等内容
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase