G

GLM 4 9B 0414 4bit DWQ

Narutoouzによって開発
GLM-4-9Bの高性能4ビットDWQ量子化バージョンで、Appleチップ用に最適化され、128Kの長文脈をサポートします。
ダウンロード数 194
リリース時間 : 6/1/2025

モデル概要

このプロジェクトは、THUDM/GLM-4-9B-0414の高性能4ビットDWQ量子化を実現し、Appleデバイスでの効率的なデプロイを可能にし、長文脈生成タスクをサポートします。

モデル特徴

高性能4ビット量子化
DWQ量子化技術を採用し、モデル品質を90 - 95%維持しながら、メモリ要件を大幅に削減します。
Appleチップ最適化
Mシリーズチップに対して深度最適化され、M4 Maxで85.23 tok/sの推論速度を達成します。
長文脈サポート
128K tokensの超長文脈処理能力をサポートします(LM Studioで手動設定が必要)。
メモリ効率的
量子化後は約8GBのメモリしか必要とせず、元のモデルより70%のメモリ使用量を削減します。

モデル能力

長文テキスト生成
複数ラウンドの対話
知識問答
テキスト要約

使用事例

コンテンツ作成
長編記事生成
128Kの文脈能力を利用して、首尾一貫した長編コンテンツを生成します。
文脈の一貫性を維持し、技術文書やストーリー作成に適しています。
開発支援
コード生成と補完
長文脈を基にコードライブラリを分析し、関連するコードを生成します。
M4 Maxで85+ tok/sの生成速度を達成します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase