Gpt4 X Alpaca
基于Alpaca-13B基础模型,通过GPT4生成响应进行3轮微调的大语言模型
下载量 195
发布时间 : 3/31/2023
模型简介
该模型是基于Alpaca-13B改进的大语言模型,通过GPT4生成的响应进行了3轮微调,未使用LORA技术。适用于多种自然语言处理任务。
模型特点
GPT4微调
使用GPT4生成的响应进行了3轮微调,提升了模型性能
大参数规模
基于13B参数的Alpaca模型,具有较强的语言理解能力
多任务适应
在多种自然语言处理任务上表现良好
模型能力
文本生成
问答系统
文本理解
语言推理
使用案例
教育
智能问答
用于教育领域的智能问答系统
在ARC测试中得分52.82
研究
语言理解研究
用于自然语言处理研究
在MMLU测试中得分48.19
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98