J

J.O.S.I.E.3 Beta12 7B Slerp

由Goekdeniz-Guelmez開發
J.O.S.I.E.3-Beta12-7B-slerp 是一個通過合併 Weyaxi/Einstein-v6-7B 和 argilla/CapybaraHermes-2.5-Mistral-7B 模型而成的7B參數大語言模型,支持多語言交互,採用ChatML提示格式。
下載量 17
發布時間 : 4/23/2024

模型概述

該模型是一個私人超級智能AI助手,專注於提供高質量的對話和問答服務,支持多種語言和複雜任務處理。

模型特點

多語言支持
支持包括中文在內的6種語言交互
合併模型優勢
結合Einstein-v6和CapybaraHermes兩個模型的優勢,通過slerp方法合併
ChatML格式
採用標準化的ChatML提示格式,便於集成到對話系統中
量化支持
提供GGUF量化版本,便於在不同硬件上部署

模型能力

多語言文本生成
智能對話
知識問答
任務完成

使用案例

個人助手
私人AI助手
作為個人日常助手,回答各種問題並提供建議
在HellaSwag測試集上達到83.98%的歸一化準確率
教育
學科知識問答
回答高中和大學水平的各學科問題
在高中地理測試中達到79.8%準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase