K

Karakuri Lm 8x7b Chat V0.1

karakuri-aiによって開発
KARAKURI社が開発した混合専門家モデル(MoE)、英語と日本語の対話をサポート、Swallow-MX-8x7b-NVE-v0.1をファインチューニング
ダウンロード数 526
リリース時間 : 4/25/2024

モデル概要

マルチターン対話をサポートする混合専門家モデルで、主にテキスト生成タスクに使用され、特に英語と日本語のコミュニケーション能力を最適化

モデル特徴

多属性制御応答
9種類の調整可能な属性(有用性、正確性、ユーモアなど)で生成内容の品質とスタイルを精密に制御
二言語サポート最適化
特に英語と日本語に最適化されており、両言語で優れた性能を発揮
効率的なパラメータ利用
混合専門家モデルとして、わずか13Bの活性化パラメータでより大規模なモデルに匹敵する性能を実現

モデル能力

マルチターン対話生成
属性制御テキスト生成
二言語(英/日)コミュニケーション
指示追従

使用事例

インテリジェントアシスタント
旅行アドバイス
東京日帰り旅行の観光プラン提案
詳細なスケジュールと観光スポットの推薦を生成
カスタマーサービス
多言語カスタマーサポート
英語と日本語の顧客問い合わせ対応
正確で役立つ二言語応答を提供
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase