B

Bitnet B1 58 Xl Q8 0 Gguf

BoscoTheDogによって開発
BitNet b1.58は1.58ビット量子化の大規模言語モデルで、重み精度を下げることで計算リソースの必要量を減らし、同時に全精度モデルに近い性能を維持します。
ダウンロード数 326
リリース時間 : 6/23/2024

モデル概要

このモデルはBitNet b1.58論文の再現で、RedPajamaデータセットを使って100Bトークンの訓練を行い、高効率な1.58ビット量子化LLMを実現しました。

モデル特徴

1.58ビット量子化
革新的な1.58ビット量子化技術を採用し、モデルの保存と計算の必要量を大幅に削減します
高効率訓練
2段階学習率と重み減衰戦略を使って訓練プロセスを最適化します
オープンソースモデル
すべての訓練済みモデルパラメータが完全にオープンソースです
全精度に近い性能
量子化された状態でもFP16精度モデルに近い性能を維持します

モデル能力

テキスト生成
ゼロショット学習
言語理解
質問応答タスク

使用事例

自然言語処理
オープンドメイン質問応答
様々な分野のオープンな質問に答えます
ARC、HellaSwagなどのベンチマークテストで良好な結果を示します
テキスト生成
首尾一貫した意味のあるテキストを生成します
困惑度(PPL)が全精度モデルに近いです
研究応用
高効率LLM研究
低ビット量子化がLLM性能に与える影響を研究します
高効率LLMの開発に参考を提供します
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase