P

Phi Mini MoE Instruct GGUF

gabriellarsonによって開発
Phi-mini-MoEは、英語のビジネスや研究シーンに適した軽量級のエキスパートミックス(MoE)モデルで、リソースが制限された環境や低遅延シーンで優れた性能を発揮します。
ダウンロード数 2,458
リリース時間 : 6/24/2025

モデル概要

Phi-mini-MoEは軽量級のエキスパートミックスモデルで、SlimMoE手法を用いてPhi-3.5-MoEとGRIN-MoEの基礎モデルから圧縮・蒸留され、汎用AIシステムやリソース制限のある環境に適しています。

モデル特徴

軽量級設計
総パラメータ76億、活性化パラメータ24億で、リソース制限のある環境に適しています。
効率的な圧縮と蒸留
SlimMoE手法を用いてPhi-3.5-MoEとGRIN-MoEの基礎モデルから圧縮・蒸留されています。
多シーン対応
汎用AIシステムやメモリ、計算リソースに制約があり、低遅延が要求されるシーンに適しています。
高品質の学習データ
学習データには4000億個のトークンが含まれ、高品質の公開文書、合成教育データ、チャット形式の監督データが含まれています。

モデル能力

テキスト生成
命令遵守
数学的推論
コード生成
常識的推論

使用事例

ビジネスアプリケーション
カスタマーサービスアシスタント
顧客の問い合わせを処理し、サポートを提供するために使用されます。
低遅延環境で迅速な応答を提供します。
研究
学術研究支援
研究者が研究内容を生成し、整理するのを支援します。
高品質のテキスト生成と推論サポートを提供します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase