P

Phi 3 Small 8k Instruct Onnx Cuda

microsoftによって開発
Phi-3 Smallは70億パラメータの軽量級最先端オープンソースモデルで、NVIDIA GPU向けに最適化されたONNXバージョンであり、8Kの文脈長をサポートし、強力な推論能力を備えています。
ダウンロード数 115
リリース時間 : 5/19/2024

モデル概要

このモデルはPhi-3 Small-8K-InstructのONNX Runtime推論変換版で、ONNX Runtimeを通じてサーバープラットフォーム、Windows、LinuxなどのデバイスのGPU上で動作します。

モデル特徴

高性能推論
FP16 CUDAバージョンはPyTorch比最大4倍高速、INT4 CUDAバージョンは最大10.9倍高速
軽量設計
70億パラメータ規模で、高性能を維持しながらリソース消費を低減
長文脈サポート
8Kトークンの文脈長をサポートし、長文タスクに適しています
マルチプラットフォーム互換性
ONNX Runtimeを通じて様々なデバイスとOSをサポート

モデル能力

テキスト生成
命令追従
常識推論
言語理解
数学計算
コード生成
論理推論

使用事例

対話システム
インテリジェントアシスタント
高性能で低遅延の対話アシスタントを構築
A100 GPU上で毎秒74.62トークンの生成速度を実現
コンテンツ生成
長文生成
8K文脈長を活用して一貫性のある長文コンテンツを生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase