P

Phi 4 Quantized.w4a16

RedHatAIによって開発
phi-4のINT4量子化バージョン、重み量子化により75%のストレージとメモリ要件を削減し、高性能を維持
ダウンロード数 723
リリース時間 : 3/3/2025

モデル概要

microsoft/phi-4を基にした量子化モデル、メモリ/計算制約環境や遅延敏感シナリオに適しており、特に論理推論タスクに優れる

モデル特徴

効率的な量子化
INT4重み量子化を採用、ディスクサイズとGPUメモリ要件を約75%削減
高性能維持
量子化後も99.3%の性能を維持、OpenLLMベンチマークで優れた結果
推論最適化
メモリ/計算制約環境や遅延敏感シナリオに特に適している
多分野能力
自然言語処理、数学、コード生成などのタスクで顕著な性能

モデル能力

テキスト生成
論理推論
数学計算
コード生成
対話インタラクション

使用事例

リソース制約環境
エッジデバイス展開
メモリが限られたエッジデバイスで大規模言語モデルを実行
75%のメモリ要件削減
低遅延アプリケーション
迅速な応答が必要なリアルタイム対話システム
高性能を維持しながら遅延を低減
専門分野
数学問題解決
複雑な数学問題や論理推論を解決
GSM-8Kベンチマークスコア89.69
コードアシスト
開発者のコード生成と最適化を支援
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase