Orthogonal 2x7B V2 Base
orthogonal-2x7B-v2-base 是一个基于 Mistral-7B-Instruct-v0.2 和 SanjiWatsuki/Kunoichi-DPO-v2-7B 的混合专家模型,专注于文本生成任务。
下载量 80
发布时间 : 1/18/2024
模型简介
该模型结合了两个专家模型的能力,分别擅长角色扮演和聊天任务,通过门控机制动态选择最合适的专家模型进行文本生成。
模型特点
混合专家架构
结合两个7B参数模型的能力,通过门控机制动态选择最适合的专家模型。
多任务优化
针对不同任务(如角色扮演和聊天)使用专门的专家模型,提高生成质量。
高效推理
相比单一大型模型,混合专家架构可以在保持性能的同时提高推理效率。
模型能力
文本生成
对话系统
角色扮演
问答系统
推理任务
使用案例
对话系统
智能聊天助手
用于构建自然流畅的对话系统
在HellaSwag数据集上达到85.69%的准确率
教育
科学问答系统
回答科学相关的问题
在AI2推理挑战赛上达到66.89%的准确率
数学推理
数学问题解答
解决基础数学问题
在GSM8k数据集上达到51.4%的准确率
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98