Molmo 7B D Bnb 4bit
Molmo-7B-DはBnB 4ビット量子化を施した大規模言語モデルで、モデルサイズが30GBから7GBに縮小され、VRAM要件が約12GBに抑えられます。
ダウンロード数 1,994
リリース時間 : 9/26/2024
モデル概要
Molmo-7B-Dは高効率な大規模言語モデルで、4ビット量子化技術によりモデルサイズとVRAM要件を大幅に削減し、リソースが制限された環境でのデプロイに適しています。
モデル特徴
4ビット量子化
BnB 4ビット量子化技術により、モデルサイズを30GBから7GBに圧縮します。
低VRAM要件
量子化後は約12GBのVRAMで実行可能となり、ハードウェアの要件が下がります。
モデル能力
テキスト生成
使用事例
テキスト処理
テキスト生成
様々な種類のテキストコンテンツの生成に利用できます。
未提供
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98