🚀 Gemma3-R1984-4B
Gemma3-R1984-4Bは、GoogleのGemma - 3 - 4Bモデルをベースに構築された強力なエージェンティックAIプラットフォームです。ウェブ検索による最先端の深層調査と、画像、動画、文書などのマルチモーダルファイル処理を統合し、最大8,000トークンの長文脈を扱うことができます。NVIDIA L40s、L4、A - 100(ZeroGPU) GPUを使用した独立したサーバーでのローカルデプロイ向けに設計されており、高いセキュリティを提供し、データ漏洩を防止し、無検閲の応答を提供します。
🚀 クイックスタート
Gemma3-R1984-4Bを使用するには、以下の手順に従ってください。
必要条件
Python 3.8以上がインストールされていることを確認してください。このモデルはいくつかのライブラリに依存しています。
- PyTorch (bfloat16サポート付き)
- Transformers
- Gradio
- OpenCV (opencv-python)
- Pillow (PIL)
- PyPDF2
- Pandas
- Loguru
- Requests
依存関係のインストール
pipを使用して依存関係をインストールします。
pip install torch transformers gradio opencv-python pillow PyPDF2 pandas loguru requests
環境変数の設定
モデルを実行する前に、以下の環境変数を設定してください。
モデルの実行
Gemma3-R1984-4Bには、Gradioベースのマルチモーダルチャットインターフェイスが付属しています。モデルをローカルで実行するには、以下の手順を行います。
- リポジトリのクローン: モデルコードを含むリポジトリがあることを確認してください。
- アプリケーションの起動: メインのPythonファイルを実行します。
python your_filename.py
これにより、ローカルのGradioインターフェイスが起動します。提供されたURLをブラウザで開いて、モデルと対話してください。
✨ 主な機能
マルチモーダル処理
画像 (PNG、JPG、JPEG、GIF、WEBP)、動画 (MP4)、文書 (PDF、CSV、TXT) などの複数のファイルタイプをサポートします。
深層調査 (ウェブ検索)
ユーザーのクエリから自動的にキーワードを抽出し、SERPHouse APIを利用して最大20件のリアルタイム検索結果を取得します。モデルは応答に複数の情報源を明示的に引用して組み込みます。
長文脈処理
最大8,000トークンの入力を処理でき、長い文書や会話の包括的な分析を保証します。
強力な推論
拡張された思考連鎖推論を採用して、体系的かつ正確な回答を生成します。
セキュアなローカルデプロイ
NVIDIA L40s GPUを使用した独立したローカルサーバーで動作し、セキュリティを最大化し、情報漏洩を防止します。
Gemma3-R1984-4Bの力を体験しよう
- ✅ エージェンティックAIプラットフォーム: インテリジェントな決定を行い、独立して行動するように設計された自律システム。
- ✅ 推論と無検閲: 高度な推論能力を活用して、明確で正確かつ無加工の応答を提供します。
- ✅ マルチモーダルとVLM: テキスト、画像、動画などの複数の入力タイプをシームレスに処理および解釈し、多様なアプリケーションを可能にします。
- ✅ 深層調査とRAG: 最先端の深層調査と検索拡張生成を統合し、包括的なリアルタイム洞察を提供します。
最高のセキュリティのための最先端ハードウェア
Gemma3-R1984-4Bは、独立したローカルサーバー環境内の専用のNVIDIA L40s GPUで動作するように設計されています。この堅牢なセットアップは、最適なパフォーマンスと高速処理を保証するだけでなく、モデルを外部ネットワークから分離することでセキュリティを強化し、情報漏洩を効果的に防止します。機密データや複雑なクエリを扱う場合でも、当社のプラットフォームはあなたの情報を安全に保ち、AIとのやり取りを損なわないようにします。
📦 インストール
上述の「クイックスタート」セクションで説明した通り、依存関係のインストール、環境変数の設定、モデルの実行手順が含まれます。
💻 使用例
基本的な使用法
import requests
import json
url = "http://<your-server-url>:8000/v1/chat/completions"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer your_token_here"
}
messages = [
{"role": "system", "content": "You are a powerful AI assistant."},
{"role": "user", "content": "Compare the contents of two PDF files."}
]
data = {
"model": "VIDraft/Gemma-3-R1984-4B",
"messages": messages,
"temperature": 0.15
}
response = requests.post(url, headers=headers, data=json.dumps(data))
print(response.json())
高度な使用法
高度な使用法については、モデルの機能やユーザーのニーズに応じて、コードを適宜カスタマイズすることができます。
📚 ドキュメント
使用事例
- 高速応答型会話エージェント
- 深層調査と検索拡張生成 (RAG)
- 文書比較と詳細分析
- 画像や動画からの視覚的質問応答
- 複雑な推論と調査ベースの問い合わせ
サポートされるファイル形式
- 画像: PNG、JPG、JPEG、GIF、WEBP
- 動画: MP4
- 文書: PDF、CSV、TXT
モデル詳細
属性 |
详情 |
パラメータ数 |
約40億パラメータ (推定) |
コンテキストウィンドウ |
最大8,000トークン |
Hugging Faceモデルパス |
VIDraft/Gemma - 3 - R1984 - 4B |
ライセンス |
mit(エージェンティックAI) / gemma(gemma - 3 - 4B) |
🔧 技術詳細
このモデルはGoogleのGemma - 3 - 4Bモデルをベースに構築されており、多様なライブラリを利用してマルチモーダル処理やウェブ検索機能を実現しています。また、NVIDIA GPUを使用したローカルデプロイに最適化されており、高いセキュリティとパフォーマンスを提供します。
📄 ライセンス
mit(エージェンティックAI) / gemma(gemma - 3 - 4B)
⚠️ 重要提示
最適なパフォーマンスを得るために、以下のコマンドを使用してリポジトリをクローンすることを強くお勧めします。このモデルは、少なくともNVIDIA L40s、L4、A100(ZeroGPU) GPUを搭載したサーバーで実行するように設計されています。最小VRAM要件は24GBで、処理時にVRAM使用量が一時的に約82GBにピークに達する場合があります。
git clone https://huggingface.co/spaces/VIDraft/Gemma-3-R1984-4B