D

Deepseek R1 Quantized.w4a16

RedHatAIによって開発
DeepSeek-R1のINT4重み量子化バージョンで、重みのビット数を減らすことでGPUメモリとディスクスペースの要件を約50%削減し、元のモデルの性能を維持しています。
ダウンロード数 119
リリース時間 : 4/17/2025

モデル概要

このモデルはDeepSeek-R1の重み量子化バージョンで、重みを8ビットから4ビットに削減し、リソース要件を大幅に削減しながら元のモデルの性能を維持しています。効率的なデプロイメントが必要な大規模言語モデルアプリケーションに適しています。

モデル特徴

INT4重み量子化
重みを8ビットから4ビットに削減し、GPUメモリとディスクスペースの要件を約50%削減
効率的なデプロイメント
vLLMバックエンドを使用した効率的なデプロイメントをサポートし、大規模な本番環境に適しています
性能維持
量子化後も元のモデルに近い性能を維持

モデル能力

テキスト生成
言語理解
推論タスク処理

使用事例

教育
数学問題解答
複雑な数学問題を解答
MATH-500テストで97.08%の精度を達成
専門テスト
AIMEテスト
アメリカ数学招待試合レベルの問題を処理
AIME 2024テストで77.00%の精度を達成
一般知識QA
MMLUテスト
多学科の多肢選択問題を処理
MMLUテストで86.99%の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase