Granite 3.2 2b Instruct GGUF
Granite-3.2-2B-Instructは20億パラメータの長文脈AIモデルで、思考推論能力に特化して微調整され、12言語とマルチタスク処理をサポートします。
ダウンロード数 1,476
リリース時間 : 2/26/2025
モデル概要
Granite-3.1-2B-Instructを基に構築されたコマンド追従モデルで、オープンソースのライセンスデータセットと内部生成の推論タスク合成データを混合してトレーニングされ、汎用コマンド追従タスクや商用AIアシスタント統合に適しています。
モデル特徴
長文脈サポート
長文書や会議要約などの長文脈タスク処理に特化して最適化
多言語能力
12言語のテキスト生成と処理をサポート
制御可能な思考推論
必要な時のみ思考能力を活性化し、効率的な推論を実現
ビジネスフレンドリーなライセンス
Apache 2.0ライセンスを採用し、商用アプリケーション統合に適しています
モデル能力
思考推論
テキスト要約
テキスト分類
情報抽出
質問応答システム
検索拡張生成(RAG)
コード関連タスク
関数呼び出しタスク
多言語対話
長文脈処理
使用事例
企業アプリケーション
商用AIアシスタント
企業のカスタマーサービスシステムや内部ナレッジ管理プラットフォームに統合
自動サービスレベルと知識検索効率の向上
会議要約
自動的に議事録と重要な決定ポイントの要約を生成
会議効率と情報保持の向上
開発ツール
コードアシスタント
開発者がコードを理解し、コードスニペットを生成するのを支援
開発効率の向上
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98