L

Llama3 8B 1.58 100B Tokens

HF1BitLLMによって開発
BitNet 1.58bアーキテクチャを基にファインチューニングされた大規模言語モデルで、ベースモデルはLlama-3-8B-Instruct、極端な量子化技術を採用
ダウンロード数 2,427
リリース時間 : 9/10/2024

モデル概要

Llama3-8B-1.58は1.58ビット量子化を採用した効率的な大規模言語モデルで、1000億トークンの訓練により最適化され、性能を維持しながら計算リソース要件を大幅に削減

モデル特徴

極端な量子化技術
1.58ビット量子化アーキテクチャを採用し、モデルのストレージと計算要件を大幅に削減
大規模訓練
1000億トークンの拡張訓練を経て、性能は半精度モデルに近い
効率的な推論
良好な性能を維持しながらリソース消費を削減

モデル能力

テキスト生成
質問応答システム
論理的推論

使用事例

教育
推論質問応答
人物の位置変化の追跡など、多段階の推論問題を解決
多段階の位置変化を含む推論問題に正しく回答可能
研究
量子化技術研究
極端な量子化条件下でのLLMの性能限界を探求
性能は半精度モデルに近い
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase