Bitnet B1 58 Xl Q8 0 Gguf
BitNet b1.58は1.58ビット量子化の大規模言語モデルで、重み精度を下げることで計算リソースの必要量を減らし、同時に全精度モデルに近い性能を維持します。
ダウンロード数 326
リリース時間 : 6/23/2024
モデル概要
このモデルはBitNet b1.58論文の再現で、RedPajamaデータセットを使って100Bトークンの訓練を行い、高効率な1.58ビット量子化LLMを実現しました。
モデル特徴
1.58ビット量子化
革新的な1.58ビット量子化技術を採用し、モデルの保存と計算の必要量を大幅に削減します
高効率訓練
2段階学習率と重み減衰戦略を使って訓練プロセスを最適化します
オープンソースモデル
すべての訓練済みモデルパラメータが完全にオープンソースです
全精度に近い性能
量子化された状態でもFP16精度モデルに近い性能を維持します
モデル能力
テキスト生成
ゼロショット学習
言語理解
質問応答タスク
使用事例
自然言語処理
オープンドメイン質問応答
様々な分野のオープンな質問に答えます
ARC、HellaSwagなどのベンチマークテストで良好な結果を示します
テキスト生成
首尾一貫した意味のあるテキストを生成します
困惑度(PPL)が全精度モデルに近いです
研究応用
高効率LLM研究
低ビット量子化がLLM性能に与える影響を研究します
高効率LLMの開発に参考を提供します
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98