M

Mistral Small 24B Instruct 2501 Quantized.w8a8

由 RedHatAI 开发
经过INT8量化的24B参数Mistral指令微调模型,显著降低GPU内存需求并提高计算吞吐量
下载量 158
发布时间 : 3/3/2025

模型简介

基于Mistral-Small-24B-Instruct-2501的量化版本,支持多语言文本生成和对话任务,适用于低延迟推理场景

模型特点

高效量化
采用W8A8量化方案,减少50%内存占用和磁盘空间,提升2倍计算吞吐量
多语言支持
支持24种语言的文本生成和理解
低延迟推理
优化后的模型特别适合需要快速响应的对话场景
企业级部署支持
提供Red Hat生态系统全栈部署方案

模型能力

多语言文本生成
指令跟随
长文档理解
编程辅助
数学推理

使用案例

对话系统
客服机器人
构建低延迟多语言客服对话系统
开发辅助
代码生成
帮助开发者生成和优化代码片段
教育
数学问题解答
解释和解决数学问题
GSM8K评估得分90.00
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase