M

Molmo 7B D Bnb 4bit

cyan2kによって開発
Molmo-7B-DはBnB 4ビット量子化を施した大規模言語モデルで、モデルサイズが30GBから7GBに縮小され、VRAM要件が約12GBに抑えられます。
ダウンロード数 1,994
リリース時間 : 9/26/2024

モデル概要

Molmo-7B-Dは高効率な大規模言語モデルで、4ビット量子化技術によりモデルサイズとVRAM要件を大幅に削減し、リソースが制限された環境でのデプロイに適しています。

モデル特徴

4ビット量子化
BnB 4ビット量子化技術により、モデルサイズを30GBから7GBに圧縮します。
低VRAM要件
量子化後は約12GBのVRAMで実行可能となり、ハードウェアの要件が下がります。

モデル能力

テキスト生成

使用事例

テキスト処理
テキスト生成
様々な種類のテキストコンテンツの生成に利用できます。
未提供
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase