Llama2 Xs 460M Experimental
本系列仓库开源复现了Meta AI的LLaMA和LLaMA 2大语言模型,但模型规模显著缩小,其中llama1_s实验版含18亿参数,llama2_xs实验版仅含4.6亿参数。
Downloads 145
Release Time : 7/26/2023
Model Overview
LLaMa精简版是LLaMA和LLaMA 2的缩小规模实验版本,旨在提供更轻量级的大语言模型选择,适用于研究用途。
Model Features
轻量级架构
显著缩小了原始LLaMA模型的规模,提供更高效的推理能力
开源复现
完全复现了Meta AI的LLaMA和LLaMA 2架构
研究友好
专门为研究目的设计,便于学术实验和模型分析
Model Capabilities
英文文本生成
问答任务处理
知识推理
Use Cases
学术研究
语言模型压缩研究
研究大规模语言模型的压缩和效率优化
实现了4.6亿参数的轻量级模型
教育应用
问答系统
构建轻量级问答系统
在MMLU任务上达到26.39的五样本准确率
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 Chinese
R
uer
2,694
98