Q

Qwq Bakeneko 32b Gguf

rinnaによって開発
rinna/qwq-bakeneko-32bをベースにllama.cppで量子化した日本語対話モデルで、llama.cppベースの多数のアプリケーションと互換性があります
ダウンロード数 1,370
リリース時間 : 3/12/2025

モデル概要

これは32Bパラメータの日本語大規模言語モデルで、量子化処理を施してllama.cppエコシステムで使用可能にしたものです。日本語テキスト生成や対話タスクに適しています。

モデル特徴

日本語最適化
日本語に特化した継続的事前学習と最適化を実施し、日本語タスクで優れた性能を発揮します
量子化バージョン
llama.cppを使用して量子化されており、リソース制約のある環境でも効率的に動作します
マルチターン対話能力
日本語MT-Benchマルチターン対話評価で8.52点の高得点を獲得しました

モデル能力

日本語テキスト生成
マルチターン対話
指示追従
知識質問応答

使用事例

対話システム
日本語チャットボット
流暢で自然な日本語対話システムを構築
日本語MT-Bench評価で優れた性能を発揮
コンテンツ作成
日本語記事生成
ユーザーが日本語の記事やレポートなどを生成するのを支援
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase