Qwq 32B Bnb 4bit
QwQ-32Bの4ビット量子化バージョンで、Bitsandbytes技術を使用して最適化されており、リソースが制限された環境での効率的な推論に適しています
ダウンロード数 167
リリース時間 : 3/5/2025
モデル概要
Qwen/QwQ-32B大規模言語モデルを基にした4ビット量子化バージョンで、Bitsandbytes技術により効率的な推論を実現し、モデル性能を維持しながらVRAM要件を大幅に削減
モデル特徴
4ビット量子化
NF4量子化技術を使用し、モデルのVRAM使用量を大幅に削減
二重量子化
二重量子化戦略を採用してモデルサイズをさらに最適化
効率的な推論
モデル性能を維持しながら効率的な推論を実現
低リソース要件
VRAMが限られたデバイスでのデプロイに適しています
モデル能力
テキスト生成
テキスト理解
対話システム
コード生成
使用事例
自然言語処理
インテリジェント対話
チャットボットや仮想アシスタントの構築
流暢で自然な対話体験
コンテンツ作成
記事、ストーリー、詩の自動生成
高品質なクリエイティブテキスト出力
プログラミング支援
コード生成
自然言語記述に基づくコード生成
実行可能なコードスニペット
コード補完
プログラミング環境でのインテリジェントな補完提案
開発効率の向上
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98