K

Karakuri Lm 8x7b Chat V0.1

由karakuri-ai開發
由KARAKURI公司開發的專家混合模型(MoE),支持英語和日語對話,基於Swallow-MX-8x7b-NVE-v0.1微調
下載量 526
發布時間 : 4/25/2024

模型概述

一個支持多輪對話的混合專家模型,主要用於文本生成任務,特別優化了英語和日語交流能力

模型特點

多屬性控制響應
通過9種可調節屬性(如幫助性、正確性、幽默感等)精細控制生成內容的質量和風格
雙語支持優化
特別針對英語和日語進行了優化,在兩種語言上均表現出色
高效參數利用
作為混合專家模型,僅13B活躍參數即可達到與更大模型相當的性能

模型能力

多輪對話生成
屬性可控文本生成
雙語(英/日)交流
指令跟隨

使用案例

智能助手
旅遊建議
提供當日往返東京的觀光方案建議
生成詳細的行程安排和景點推薦
客戶服務
多語言客服
處理英語和日語客戶的諮詢
提供準確、有幫助的雙語響應
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase