S

Sheared LLaMA 1.3B

Developed by princeton-nlp
Sheared-LLaMA-1.3BはLLaMA-2-7Bを基に構造化プルーニングと継続事前学習を行った効率的な言語モデルです
Downloads 11.09k
Release Time : 10/10/2023

Model Overview

このモデルはRedPajamaデータセットを動的にロードしてプルーニングと継続事前学習を行い、50Bトークンの予算下で同クラスのモデルを上回る性能を実現しました

Model Features

効率的なプルーニング技術
わずか0.4Bトークンでプルーニングを行い、計算コストを大幅に削減
継続事前学習
プルーニング後のモデルに50Bトークンで継続事前学習を行い、性能を維持
互換性
LLaMA1およびLLaMA2と同じ語彙を使用しており、移行が容易

Model Capabilities

テキスト生成
言語理解
推論タスク
読解
知識集約型タスク処理

Use Cases

自然言語処理
言語モデルベンチマーク
ARC、HellaSwagなどのベンチマークで優れた性能
平均性能51.0、同クラス1.3Bパラメータモデルを上回る
知識質問応答
知識集約型QAタスクを処理
TruthfulQAで37.14点を獲得
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase