Google Gemma 2b AWQ 4bit Smashed
google/gemma-2bモデルを基に、AWQ技術を用いて圧縮した4ビット量子化バージョンで、推論効率の向上とリソース消費の削減を目的としています。
Downloads 33
Release Time : 4/29/2024
Model Overview
このモデルはgoogle/gemma-2bの圧縮バージョンで、AWQ量子化技術を採用し、モデルの性能を維持しながら、メモリ使用量と計算リソースの要求を大幅に削減します。
Model Features
高効率圧縮
AWQ技術を用いて4ビット量子化を実現し、モデルサイズとメモリ要件を大幅に削減します。
リソース最適化
元のモデルと比較して、推論速度、メモリ使用量、エネルギー消費のすべてにおいて大幅な改善が見られます。
環境にやさしい
計算エネルギー消費を削減し、二酸化炭素排出量を減らし、より環境にやさしいです。
Model Capabilities
テキスト生成
質問応答システム
コンテンツ作成
Use Cases
コンテンツ生成
自動質問応答
効率的な質問応答システムの構築に使用し、ユーザーのクエリに迅速に応答します。
回答の質を維持しながら、リソース消費を大幅に削減します。
テキスト作成
コンテンツ作成者が記事の草稿や創造的なテキストを生成するのを支援します。
効率的に首尾一貫したテキストを生成し、待ち時間を短縮します。
効率ツール
エッジデバイスへのデプロイ
リソースが限られたデバイスにAI機能をデプロイするのに適しています。
ハードウェア要件を下げ、より多くのデバイスでAIモデルを実行できるようにします。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98