G

Gemma 2b It GGUF

MaziyarPanahiによって開発
Gemma 2BモデルのGGUF量子化バージョン、ローカル展開と推論に適しています
ダウンロード数 517
リリース時間 : 2/21/2024

モデル概要

これはgoogle/gemma-2b-itモデルのGGUFフォーマットバージョンで、主にテキスト生成タスクに使用され、複数の量子化レベル(2-8ビット)をサポートしています。GGUFはllama.cppチームが開発した新しいフォーマットで、古いGGMLフォーマットに取って代わります。

モデル特徴

多様な量子化オプション
2ビットから8ビットまでの多様な量子化レベルを提供し、異なるハードウェア要件に対応します
GGUFフォーマットサポート
最新のGGUFフォーマットを採用し、様々な推論クライアントやライブラリと互換性があります
ローカル展開能力
ローカルデバイス上で実行可能で、クラウドサービスは不要です
会話型AIサポート
会話型AIの能力を備えており、チャットアプリケーションの構築に使用できます

モデル能力

テキスト生成
会話型AI
ローカル推論

使用事例

チャットアプリケーション
インテリジェントチャットボット
ローカルで実行可能な会話型AIアプリケーションを構築
コンテンツ生成
テキスト自動生成
記事、ストーリーなどのコンテンツ作成を支援
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase