# 自回归架构

Janus Pro 1B
MIT
Janus-Pro是一种新颖的自回归框架,统一了多模态理解和生成任务,通过解耦视觉编码增强灵活性。
文本生成图像 Transformers
J
deepseek-community
4,636
0
Codellama 34b Python Hf
Code Llama是由Meta发布的预训练生成文本模型系列,专为代码生成与理解任务设计。本模型为340亿参数Python专用版本。
大型语言模型 Transformers 其他
C
meta-llama
414
9
Codellama 34b Hf
Code Llama是Meta发布的包含70亿到340亿参数的代码生成与理解模型系列,本版本为340亿参数基础模型
大型语言模型 Transformers 其他
C
meta-llama
492
15
Codellama 13b Python Hf
Code Llama是由Meta发布的70亿到340亿参数规模的预训练及微调生成文本模型系列,本模型为130亿参数Python专用版本
大型语言模型 Transformers 其他
C
meta-llama
636
7
Codellama 34b Python Hf
代码骆驼(Code Llama)是Meta推出的340亿参数Python专用代码生成模型,基于Llama 2架构优化,专注于Python代码合成与理解
大型语言模型 Transformers 其他
C
codellama
2,135
96
Codellama 13b Python Hf
Code Llama是Meta开发的代码生成与理解大模型系列,本版本为130亿参数Python专用变体
大型语言模型 Transformers 其他
C
codellama
2,230
51
Codellama 13b Hf
Code Llama 13B是一个130亿参数的生成式代码模型,专为通用代码合成与理解设计
大型语言模型 Transformers 其他
C
codellama
6,829
107
Llama 7b Hf Transformers 4.29
其他
LLaMA是由Meta AI开发的基于Transformer架构的高效基础语言模型,提供7B参数版本,支持多种语言处理任务。
大型语言模型 Transformers
L
elinas
4,660
57
Llama 7b Hf
其他
LLaMA是由Meta AI开发的开放高效基础语言模型,提供7B参数版本,支持20种语言,专注于自然语言处理研究。
大型语言模型 Transformers
L
yahma
22.30k
85
Llama 7b Embeddings
其他
Meta AI开发的7B参数规模开源高效基础语言模型,基于Transformer架构,支持多语言但以英语为主
大型语言模型 Transformers
L
shalomma
36
28
Gpt Neo 2.7B
MIT
GPT-Neo 2.7B是EleutherAI基于GPT-3架构复现的27亿参数Transformer语言模型,在Pile数据集上训练完成
大型语言模型 英语
G
EleutherAI
52.68k
486
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase