P

Phi Mini MoE Instruct GGUF

Developed by gabriellarson
Phi-mini-MoE是一个轻量级的专家混合(MoE)模型,适用于英语的商业和研究场景,在资源受限环境和低延迟场景中表现出色。
Downloads 2,458
Release Time : 6/24/2025

Model Overview

Phi-mini-MoE是一个轻量级的专家混合模型,通过SlimMoE方法从Phi-3.5-MoE和GRIN-MoE基础模型压缩蒸馏而来,适用于通用AI系统和资源受限环境。

Model Features

轻量级设计
总参数76亿,激活参数24亿,适合资源受限环境。
高效压缩与蒸馏
采用SlimMoE方法从Phi-3.5-MoE和GRIN-MoE基础模型压缩蒸馏而来。
多场景适用
适用于通用AI系统和对内存、计算资源有约束以及低延迟要求的场景。
高质量训练数据
训练数据包含4000亿个令牌,包括高质量公开文档、合成教育数据和聊天格式监督数据。

Model Capabilities

文本生成
指令遵循
数学推理
代码生成
常识推理

Use Cases

商业应用
客户服务助手
用于处理客户查询和提供支持。
在低延迟环境中提供快速响应。
研究
学术研究辅助
帮助研究人员生成和整理研究内容。
提供高质量的文本生成和推理支持。
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase