L

Llama 2 7b Chat Hf Q4 K M GGUF

matrixportalによって開発
MetaがリリースしたLlama 2シリーズ7BパラメータチャットモデルのGGUF量子化バージョン、ローカル展開と推論に適しています
ダウンロード数 220
リリース時間 : 11/22/2024

モデル概要

Llama 2アーキテクチャを基に最適化された対話モデル、テキスト生成タスクをサポート、4-bit量子化処理によりハードウェア要件を低減

モデル特徴

量子化圧縮
GGUFフォーマットの4-bit量子化(Q4_K_M)を採用、モデルサイズとメモリ使用量を大幅に削減
ローカル展開
llama.cppを介してローカルデバイスで実行可能、クラウド依存不要
対話最適化
対話シナリオに特化してファインチューニングされた7Bパラメータモデル、性能とリソース消費のバランスを実現

モデル能力

オープンドメイン対話
指示追従
コンテキスト理解
マルチターン対話

使用事例

インテリジェントアシスタント
個人知識QA
ローカルナレッジベースインターフェースとして展開、プライバシー保護しながら情報検索を提供
開発テスト
モデルプロトタイプ開発
対話システムプロトタイプの迅速な検証に使用、開発ハードウェアのハードルを低減
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase