Nucleotide Transformer 500m Human Ref
基於人類參考基因組預訓練的5億參數Transformer模型,整合了3,200多個多樣化人類基因組和850個物種的DNA序列信息
分子模型
Transformers

N
InstaDeepAI
4,482
12
Pythia 6.9b
Apache-2.0
Pythia-6.9B是EleutherAI開發的大規模語言模型,屬於Pythia可擴展套件的一部分,專為促進可解釋性研究而設計。
大型語言模型
Transformers 英語

P
EleutherAI
46.72k
54
M Ctc T Large
Apache-2.0
Meta AI推出的大規模多語言語音識別模型,支持60種語言,基於10億參數Transformer編碼器架構。
語音識別
Transformers 英語

M
speechbrain
88
20
Bloom 1b7
Openrail
BigScience大型開放科學多語言語言模型,支持46種自然語言和12種編程語言
大型語言模型 支持多種語言
B
bigscience
105.70k
121
Mctct Large
Apache-2.0
Meta AI推出的大規模多語言語音識別模型,具有10億參數,支持60種語言的字符級轉錄
語音識別
Transformers 英語

M
cwkeam
21
0
Opus Mt Tc Big Hu En
這是一個用於從匈牙利語翻譯到英語的神經機器翻譯模型,屬於OPUS-MT項目的一部分。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
371
3
Opus Mt Tc Big Bg En
用於從保加利亞語翻譯到英語的神經機器翻譯模型,基於OPUS-MT項目開發。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
69
3
Opus Mt Tc Big En Lt
這是一個用於英語到立陶宛語翻譯的神經機器翻譯模型,屬於OPUS-MT項目的一部分。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
204
2
Opus Mt Tc Big En Zle
這是一個從英語翻譯至東斯拉夫語族(包括白俄羅斯語、俄語、烏克蘭語)的神經機器翻譯模型,屬於OPUS-MT項目的一部分。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
565
0
Opus Mt Tc Big En Fi
這是一個基於Transformer架構的大規模神經機器翻譯模型,專門用於將英語翻譯成芬蘭語。該模型是OPUS-MT項目的一部分,使用Marian NMT框架訓練,並通過Hugging Face的transformers庫提供。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
1,255
2
Xlm Mlm 17 1280
XLM模型是基於17種語言文本訓練的跨語言預訓練模型,採用掩碼語言建模(MLM)目標
大型語言模型
Transformers 支持多種語言

X
FacebookAI
201
2
Xlm Mlm 100 1280
XLM模型是基於100種語言的維基百科文本訓練的跨語言語言模型,使用掩碼語言建模目標進行預訓練。
大型語言模型
Transformers 支持多種語言

X
FacebookAI
296
4
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98