# 大規模Transformer

Nucleotide Transformer 500m Human Ref
基於人類參考基因組預訓練的5億參數Transformer模型,整合了3,200多個多樣化人類基因組和850個物種的DNA序列信息
分子模型 Transformers
N
InstaDeepAI
4,482
12
Pythia 6.9b
Apache-2.0
Pythia-6.9B是EleutherAI開發的大規模語言模型,屬於Pythia可擴展套件的一部分,專為促進可解釋性研究而設計。
大型語言模型 Transformers 英語
P
EleutherAI
46.72k
54
M Ctc T Large
Apache-2.0
Meta AI推出的大規模多語言語音識別模型,支持60種語言,基於10億參數Transformer編碼器架構。
語音識別 Transformers 英語
M
speechbrain
88
20
Bloom 1b7
Openrail
BigScience大型開放科學多語言語言模型,支持46種自然語言和12種編程語言
大型語言模型 支持多種語言
B
bigscience
105.70k
121
Mctct Large
Apache-2.0
Meta AI推出的大規模多語言語音識別模型,具有10億參數,支持60種語言的字符級轉錄
語音識別 Transformers 英語
M
cwkeam
21
0
Opus Mt Tc Big Hu En
這是一個用於從匈牙利語翻譯到英語的神經機器翻譯模型,屬於OPUS-MT項目的一部分。
機器翻譯 Transformers 支持多種語言
O
Helsinki-NLP
371
3
Opus Mt Tc Big Bg En
用於從保加利亞語翻譯到英語的神經機器翻譯模型,基於OPUS-MT項目開發。
機器翻譯 Transformers 支持多種語言
O
Helsinki-NLP
69
3
Opus Mt Tc Big En Lt
這是一個用於英語到立陶宛語翻譯的神經機器翻譯模型,屬於OPUS-MT項目的一部分。
機器翻譯 Transformers 支持多種語言
O
Helsinki-NLP
204
2
Opus Mt Tc Big En Zle
這是一個從英語翻譯至東斯拉夫語族(包括白俄羅斯語、俄語、烏克蘭語)的神經機器翻譯模型,屬於OPUS-MT項目的一部分。
機器翻譯 Transformers 支持多種語言
O
Helsinki-NLP
565
0
Opus Mt Tc Big En Fi
這是一個基於Transformer架構的大規模神經機器翻譯模型,專門用於將英語翻譯成芬蘭語。該模型是OPUS-MT項目的一部分,使用Marian NMT框架訓練,並通過Hugging Face的transformers庫提供。
機器翻譯 Transformers 支持多種語言
O
Helsinki-NLP
1,255
2
Xlm Mlm 17 1280
XLM模型是基於17種語言文本訓練的跨語言預訓練模型,採用掩碼語言建模(MLM)目標
大型語言模型 Transformers 支持多種語言
X
FacebookAI
201
2
Xlm Mlm 100 1280
XLM模型是基於100種語言的維基百科文本訓練的跨語言語言模型,使用掩碼語言建模目標進行預訓練。
大型語言模型 Transformers 支持多種語言
X
FacebookAI
296
4
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase