O

Olmo 2 0325 32B Instruct GGUF

Mungertによって開発
OLMo-2-0325-32B-DPOをベースにした命令微調整モデルで、IQ-DynamicGate超低ビット量子化技術を採用し、メモリ制約環境向けに最適化されています。
ダウンロード数 15.57k
リリース時間 : 4/2/2025

モデル概要

このモデルは32Bパラメータの大規模言語モデルで、命令微調整が施されており、テキスト生成タスクをサポートします。革新的なIQ-DynamicGate量子化技術を採用し、1-2ビットの超低精度でも高い性能を維持できます。

モデル特徴

IQ-DynamicGate超低ビット量子化
革新的な1-2ビット量子化技術で、精度適応戦略を採用し、極限のメモリ効率を維持しながら誤差伝播を低減します。
階層型量子化戦略
モデルの異なる層に対して差異化された量子化スキームを適用し、重要なコンポーネントはより高い精度を保持することで、性能と効率のバランスを実現します。
マルチフォーマット対応
BF16からIQ3_XSまで様々な量子化フォーマットを提供し、異なるハードウェア環境と性能要件に対応します。

モデル能力

テキスト生成
命令追従
低メモリ推論

使用事例

リソース制約環境での展開
エッジデバイス推論
メモリが限られたエッジデバイスで大規模言語モデルを実行
IQ1_M量子化バージョンでパープレキシティ43.9%低減
CPU推論最適化
GPUアクセラレーションのないCPU環境でモデルを効率的に実行
Q4_K量子化バージョンはメモリ制約のあるCPU推論に適しています
研究応用
超低ビット量子化研究
1-2ビット量子化がモデル性能に与える影響を研究
IQ2_S量子化バージョンでパープレキシティ36.9%低減
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase