S

Sheared LLaMA 2.7B

princeton-nlpによって開発
Sheared-LLaMA-2.7BはLlama-2-7bを剪枝と継続事前学習によって得られた軽量言語モデルで、わずか50Bトークンの予算で作成されました。
ダウンロード数 1,131
リリース時間 : 10/10/2023

モデル概要

このモデルは構造化剪枝技術によってLlama-2-7bから圧縮され、元モデルのコア能力を保持しながら、複数の下流タスクで優れた性能を発揮します。

モデル特徴

効率的な剪枝
わずか0.4Bトークンを使用して剪枝を行い、モデルサイズを大幅に削減
効率的な訓練
50Bトークンだけで継続事前学習を行い、優れた性能を達成
優れた性能
1.3Bと2.7Bの規模で同規模モデルを上回る性能

モデル能力

テキスト生成
言語理解
推論タスク
読解
知識集約型タスク

使用事例

自然言語処理
言語モデリング
一貫性のあるテキストコンテンツを生成
言語モデリングタスクで優れた性能
質問応答システム
知識集約型の質問応答アプリケーションを構築
読解タスクで良好な性能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase