P

Phixtral 2x2 8

由 mlabonne 开发
phixtral-2x2_8 是首个基于两个 microsoft/phi-2 模型构建的混合专家模型(MoE),其表现优于每个单独的专家模型。
下载量 178
发布时间 : 1/7/2024

模型简介

phixtral-2x2_8 是一个基于两个 microsoft/phi-2 模型构建的混合专家模型(MoE),灵感来源于 mistralai/Mixtral-8x7B-v0.1 架构。它通过结合两个专家模型的优势,提供了更好的性能表现。

模型特点

混合专家模型(MoE)
结合两个 microsoft/phi-2 模型的优势,提供更好的性能表现。
高性能
在 AGIEval、GPT4All、TruthfulQA 和 Bigbench 等测试中表现优于单个专家模型。
灵活配置
支持动态配置专家数量,适应不同任务需求。

模型能力

文本生成
代码生成
自然语言处理

使用案例

代码生成
生成素数代码
根据输入生成打印 1 到 n 之间所有素数的 Python 代码。
生成高质量的代码片段,可直接用于开发。
自然语言处理
文本生成
根据输入的提示生成连贯的文本内容。
生成流畅、逻辑清晰的文本。
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase