Granite 3.2 8b Instruct GGUF
Granite-3.2-8B-Instructは80億パラメータの長文脈AIモデルで、思考推論能力に特化して微調整され、複数の言語とタスクをサポートします。
ダウンロード数 1,059
リリース時間 : 2/26/2025
モデル概要
Granite-3.1-8B-Instructを基に構築され、オープンソースのライセンスデータセットと内部で生成された推論タスクの合成データを混合してトレーニングされ、思考能力の制御可能な呼び出しをサポートします。
モデル特徴
長文脈サポート
長文書や会議の要約などの長文脈タスクを処理できます。
多言語サポート
英語、中国語、日本語など12言語をサポートします。
思考推論能力
思考推論能力に特化して微調整され、制御可能な呼び出しをサポートします。
オープンソースライセンス
Apache 2.0ライセンスを採用し、商業アプリケーションに適しています。
モデル能力
思考推論
テキスト要約
テキスト分類
情報抽出
質問応答システム
検索拡張生成(RAG)
コード関連タスク
関数呼び出しタスク
多言語対話
長文脈タスク
使用事例
汎用AIアシスタント
ビジネスアプリケーション統合
様々なAIアシスタントに統合され、ビジネスアプリケーション分野をサポートします。
テキスト処理
長文書要約
長文書や会議記録を処理し、簡潔な要約を生成します。
多言語質問応答
複数言語の質問応答タスクをサポートします。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98