B

Bitnet B1.58 2B 4T

microsoftによって開発
マイクロソフトリサーチが開発した初のオープンソース20億パラメータ規模のネイティブ1ビット大規模言語モデル。4兆トークンのコーパスでトレーニングされ、ネイティブ1ビット大規模言語モデルが同規模のフル精度オープンソースモデルと同等の性能を維持しながら、計算効率を大幅に向上させることを証明しました。
ダウンロード数 35.87k
リリース時間 : 4/15/2025

モデル概要

BitNet b1.58 2B4Tはネイティブ1.58ビットの大規模言語モデルで、三元値{-1, 0, +1}の重みと8ビットの活性化を使用し、効率的な計算のために設計されています。このモデルは同規模のフル精度モデルと同等の性能を維持しながら、メモリ使用量と電力消費を大幅に削減します。

モデル特徴

ネイティブ1.58ビット量子化
モデルは直接1.58ビット重みと8ビット活性化スキームを使用して最初からトレーニングされ、トレーニング後の量子化ではありません
効率的な計算
同規模のフル精度モデルと比較して、メモリ使用量、電力消費、遅延を大幅に削減
大規模トレーニング
テキスト、コード、数学データを含む4兆トークンの多様なコーパスでトレーニング
最適化アーキテクチャ
回転位置エンコーディング、二乗ReLU活性化、subln正規化などの最適化技術を採用

モデル能力

テキスト生成
対話システム
命令追従
コード生成
数学的推論

使用事例

対話システム
AIアシスタント
高性能で低リソース消費の対話アシスタントを構築
人間評価で38.4点を獲得
数学的推論
数学問題解決
GSM8K数学問題を解決
58.38%の精度を達成
常識推論
常識質問応答
常識的な質問に回答
常識QAで71.58点を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase