# 自迴歸架構

Janus Pro 1B
MIT
Janus-Pro是一種新穎的自迴歸框架,統一了多模態理解和生成任務,通過解耦視覺編碼增強靈活性。
文本生成圖像 Transformers
J
deepseek-community
4,636
0
Codellama 34b Python Hf
Code Llama是由Meta發佈的預訓練生成文本模型系列,專為代碼生成與理解任務設計。本模型為340億參數Python專用版本。
大型語言模型 Transformers 其他
C
meta-llama
414
9
Codellama 34b Hf
Code Llama是Meta發佈的包含70億到340億參數的代碼生成與理解模型系列,本版本為340億參數基礎模型
大型語言模型 Transformers 其他
C
meta-llama
492
15
Codellama 13b Python Hf
Code Llama是由Meta發佈的70億到340億參數規模的預訓練及微調生成文本模型系列,本模型為130億參數Python專用版本
大型語言模型 Transformers 其他
C
meta-llama
636
7
Codellama 34b Python Hf
代碼駱駝(Code Llama)是Meta推出的340億參數Python專用代碼生成模型,基於Llama 2架構優化,專注於Python代碼合成與理解
大型語言模型 Transformers 其他
C
codellama
2,135
96
Codellama 13b Python Hf
Code Llama是Meta開發的代碼生成與理解大模型系列,本版本為130億參數Python專用變體
大型語言模型 Transformers 其他
C
codellama
2,230
51
Codellama 13b Hf
Code Llama 13B是一個130億參數的生成式代碼模型,專為通用代碼合成與理解設計
大型語言模型 Transformers 其他
C
codellama
6,829
107
Llama 7b Hf Transformers 4.29
其他
LLaMA是由Meta AI開發的基於Transformer架構的高效基礎語言模型,提供7B參數版本,支持多種語言處理任務。
大型語言模型 Transformers
L
elinas
4,660
57
Llama 7b Hf
其他
LLaMA是由Meta AI開發的開放高效基礎語言模型,提供7B參數版本,支持20種語言,專注於自然語言處理研究。
大型語言模型 Transformers
L
yahma
22.30k
85
Llama 7b Embeddings
其他
Meta AI開發的7B參數規模開源高效基礎語言模型,基於Transformer架構,支持多語言但以英語為主
大型語言模型 Transformers
L
shalomma
36
28
Gpt Neo 2.7B
MIT
GPT-Neo 2.7B是EleutherAI基於GPT-3架構復現的27億參數Transformer語言模型,在Pile數據集上訓練完成
大型語言模型 英語
G
EleutherAI
52.68k
486
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase