P

Phi 3.5 Mini Instruct Onnx

microsoftによって開発
Phi-3.5 Miniは軽量級で最先端のオープンモデルで、128Kトークンのコンテキスト長をサポートし、メモリ/計算資源が制限された環境や低遅延シナリオに適しています。
ダウンロード数 1,056
リリース時間 : 9/12/2024

モデル概要

このモデルはPhi-3.5 Mini-InstructのONNX最適化バージョンで、ONNX Runtimeによって推論が高速化され、CPUとGPUでクロスデバイスで動作します。

モデル特徴

ONNX最適化
INT4量子化のCPUとGPUバージョンのONNXモデルを提供し、推論速度を大幅に向上させます。
クロスプラットフォームサポート
サーバープラットフォーム、Windows、Linux、MacデスクトップおよびモバイルCPUで動作します。
高効率推論
ONNX RuntimeではPyTorchよりも性能が優れており、INT4バージョンはPyTorch Compileよりも最大21倍速いです。
長コンテキストサポート
128Kトークンのコンテキスト長をサポートし、長いドキュメントの処理に適しています。

モデル能力

テキスト生成
コード生成
数学推論
論理推論

使用事例

汎用AIアプリケーション
対話システム
低遅延のチャットボットを構築する
ユーモラスでコンテキストに合った返答を生成できる
コード支援
開発者がコードを作成および最適化するのを支援する
強力なコード理解と生成能力
制限環境アプリケーション
エッジデバイスAI
メモリと計算資源が限られたデバイスで動作する
量子化によって高効率な推論を実現する
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase