# 大規模參數

Perception LM 8B
其他
Meta發佈的基於PyTorch框架的預訓練語言模型,適用於非商業研究用途。
大型語言模型 英語
P
facebook
638
28
Bytedance Research.ui TARS 72B SFT GGUF
字節跳動研究團隊發佈的72B參數規模的多模態基礎模型,專注於圖像文本轉文本任務
圖像生成文本
B
DevQuasar
81
1
Nllb 200 Bnb 4bit
NLLB-200-3.3B是Meta(原Facebook)開發的多語言神經機器翻譯模型,支持200種語言之間的翻譯任務。
機器翻譯 Transformers
N
Youseff1987
17
1
Ruri Reranker Large
Apache-2.0
琉璃重排序器是一個日語通用重排序模型,基於Sentence Transformers架構,專門用於日語文本相關性排序任務。
文本嵌入 日語
R
cl-nagoya
2,538
11
Gte En Mlm Large
Apache-2.0
GTE-v1.5系列中的大型英語文本編碼器,支持長達8192的上下文長度,基於改進的BERT架構構建。
大型語言模型 支持多種語言
G
Alibaba-NLP
171
5
Llmc Gpt2 774M 150B
MIT
這是一個基於GPT-2架構的774M參數語言模型,使用FineWeb數據集中的1500億token進行訓練。
大型語言模型 Transformers 英語
L
mdouglas
18
1
Aya 23 35B GGUF
aya-23-35B-GGUF量化版是基於CohereForAI/aya-23-35B的GGUF量化版本,支持23種語言的多語言文本生成任務。
大型語言模型 支持多種語言
A
legraphista
399
2
GNER T5 Xxl
Apache-2.0
GNER-T5-xxl是基於Flan-T5架構的生成式命名實體識別模型,參數量達11B,在零樣本識別任務中表現優異。
序列標註 Transformers 英語
G
dyyyyyyyy
51
3
Ziya LLaMA 13B Pretrain V1
Gpl-3.0
基於LLaMa架構的130億參數大規模預訓練模型,針對中文分詞進行優化,完成1100億token的中英文增量預訓練,顯著提升中文生成與理解能力
大型語言模型 Transformers 支持多種語言
Z
IDEA-CCNL
113
20
T5 Efficient Large Nh32
Apache-2.0
T5高效大型-NH32是谷歌T5模型的深度窄型變體,專注於通過增加模型深度提升下游任務性能。
大型語言模型 英語
T
google
16
0
T5 Efficient Large
Apache-2.0
T5-Efficient-LARGE是基於谷歌T5的變體,採用深度窄型架構優化下游任務性能,擁有7.377億參數。
大型語言模型 英語
T
google
183
4
Blenderbot 90M
Apache-2.0
BlenderBot是一個開放域聊天機器人模型,專注於多輪對話和多種對話技能的融合。
對話系統 Transformers 英語
B
facebook
4,669
3
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase