L

Llama 3.2 3B Instruct Abliterated GGUF

ZeroWwによって開発
最適化された量子化モデルで、出力と埋め込みテンソルはf16形式を使用し、残りのテンソルはq5_kまたはq6_k形式を使用します。これにより、モデルのサイズが小さくなり、純粋なf16と同等の性能を維持します。
ダウンロード数 20
リリース時間 : 10/8/2024

モデル概要

このモデルは量子化バージョンで、テンソル形式を最適化することで、モデルのサイズを小さくしながら性能を維持します。効率的な推論が必要なシナリオに適しています。

モデル特徴

効率的な量子化
出力と埋め込みテンソルはf16形式を使用し、残りのテンソルはq5_kまたはq6_k形式を使用することで、モデルのサイズを大幅に削減します。
性能維持
量子化後のモデル性能は純粋なf16形式と同等で、効率的な推論に適しています。

モデル能力

テキスト生成

使用事例

効率的な推論
軽量テキスト生成
リソースが制限されたデバイスでのテキスト生成タスクに適しています。
モデルのサイズが小さくなり、性能は純粋なf16と同等です。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase