E

EXAONE Deep 32B GGUF

Mungertによって開発
EXAONE-Deep-32Bは32Bパラメータの大規模言語モデルで、英語と韓語をサポートし、テキスト生成タスク向けに設計されています。
ダウンロード数 2,249
リリース時間 : 3/25/2025

モデル概要

このモデルはLGAI-EXAONE/EXAONE-3.5-32B-Instructを微調整したもので、IQ-DynamicGate超低ビット量子化技術を採用し、メモリ効率と推論速度を最適化しています。

モデル特徴

IQ-DynamicGate超低ビット量子化
精度適応型量子化技術を採用し、1-2ビット量子化下でモデルの精度を大幅に向上させながら、高いメモリ効率を維持します。
動的精度割り当て
上位25%と下位25%の層にIQ4_XSを、中間50%の層にIQ2_XXS/IQ3_Sを使用し、モデル性能を最適化します。
重要コンポーネント保護
埋め込み層と出力層にQ5_K量子化を適用し、誤差伝播を減少させ、モデル全体の精度を向上させます。

モデル能力

テキスト生成
多言語サポート(英語、韓国語)
超低ビット量子化推論

使用事例

メモリ制約環境
GPUメモリ適応
メモリが限られたGPUで大規模言語モデルを実行します。
量子化技術により、モデルのメモリ使用量が大幅に削減されます。
CPUおよびエッジデバイス展開
低電力デバイスでモデルを実行します。
超低ビット量子化により、リソースが制限されたデバイスでもモデルを実行できます。
研究と応用
超低ビット量子化研究
1-2ビット量子化がモデル性能に与える影響を研究します。
DynamicGate量子化技術は、低ビット量子化におけるモデル精度を大幅に向上させました。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase