P

Prosparse Llama 2 7b

SparseLLMによって開発
LLaMA-2-7Bを基にした活性化スパース化大規模言語モデル、ProSparseメソッドにより高スパース率(89.32%)を実現しつつ元の性能を維持
ダウンロード数 152
リリース時間 : 2/19/2024

モデル概要

漸進的スパース正則化で訓練されたReLU活性化LLaMA-2バリアント、推論効率を大幅に向上、テキスト生成と理解タスクに適応

モデル特徴

高活性化スパース性
ProSparseメソッドにより89.32%のスパース率を実現、同類のReLUモデル(例:ReluLLaMA-7Bの66.98%)を大幅に上回る
性能無劣化
元のSwish活性化LLaMA-2と同等のタスク性能を維持しつつスパース化を実現
推論加速
高スパース性によりPowerInferフレームワークとカスタムGPU演算子をサポート、実測で1.27-2.17倍の加速を達成
漸進的訓練
3段階の訓練プロセス: 活性化置換→漸進的正則化→閾値シフト、スパース性と性能の効果的なバランスを実現

モデル能力

テキスト生成
コード生成
常識推論
読解
数学的推論

使用事例

効率的推論
エッジデバイス展開
高スパース性を活用しリソース制約のあるデバイスで効率的な推論を実現
PowerInferフレームワークで単一A100 GPUにおいて218.3 tokens/sを達成
学術研究
スパース化手法検証
活性化スパース化研究のベンチマークモデルとして
現在オープンソースのLLaMA同サイズ中最もスパースな活性化モデル
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase