Rnaernie
RNAErnie是一個基於非編碼RNA序列進行自監督預訓練的模型,採用多階段掩碼語言建模目標,為RNA研究提供強大的特徵表示能力。
分子模型
PyTorch
R
multimolecule
11.00k
1
Resencl OpenMind SimCLR
首個針對3D醫學影像數據的自監督學習全面基準研究模型
3D視覺
R
AnonRes
16
0
Resencl OpenMind VoCo
首個針對3D醫學影像數據的自監督學習全面基準研究模型
3D視覺
R
AnonRes
16
0
Prophetnet Large Uncased
ProphetNet是一種序列到序列學習預訓練語言模型,採用未來n元預測的自監督目標,能夠預測更多未來標記
大型語言模型 英語
P
microsoft
5,528
5
Voc2vec
Apache-2.0
voc2vec是專為非語言人類數據設計的基礎模型,基於wav2vec 2.0框架構建,預訓練數據集涵蓋約125小時非語言音頻。
音頻分類
Transformers 英語

V
alkiskoudounas
223
2
Mahadhwani Pretrained Conformer
MIT
基於自監督學習的預訓練Conformer編碼器模型,支持印度22種預定語言的自動語音識別任務。
語音識別
M
ai4bharat
349
1
Hubert Ecg Large
面向廣泛可擴展心臟應用的自監督基礎模型,訓練數據包含910萬份12導聯心電圖,涵蓋164種心血管疾病
分子模型
Transformers

H
Edoardo-BS
168
1
Lwm
LWM是首個無線通信領域的基礎模型,作為通用特徵提取器開發,能夠從無線信道數據中提取精細表徵。
物理學模型
Transformers

L
wi-lab
137
3
Dasheng Base
Apache-2.0
大規模通用音頻編碼器,通過自監督學習訓練,支持語音、音樂和環境音等多領域音頻信息處理
音頻分類
Transformers

D
mispeech
273
1
Berturk Legal
MIT
BERTurk-Legal是一個基於Transformer架構的語言模型,專門用於土耳其法律領域的先前案例檢索任務。
大型語言模型
Transformers 其他

B
KocLab-Bilkent
382
6
Molformer XL Both 10pct
Apache-2.0
MoLFormer是基於ZINC和PubChem中11億分子SMILES字符串預訓練的化學語言模型,本版本使用兩個數據集各10%樣本訓練
分子模型
Transformers

M
ibm-research
171.96k
19
Gpt2 Demo
其他
GPT-2是一個基於Transformer架構的自監督預訓練語言模型,擅長文本生成任務。
大型語言模型
Transformers

G
demo-leaderboard
19.21k
1
Mert Base
MERT是一種基於自監督學習的聲學音樂理解模型,通過教師模型提供偽標籤進行預訓練。
音頻分類
Transformers

M
yangwang825
26
0
Videomae Small Finetuned Ssv2
VideoMAE是基於掩碼自編碼器(MAE)的視頻自監督預訓練模型,在Something-Something V2數據集上微調用於視頻分類任務。
視頻處理
Transformers

V
MCG-NJU
140
0
Regnety 1280.seer
其他
RegNetY-128GF特徵提取模型,採用SEER方法在20億張隨機網絡圖片上進行自監督預訓練
圖像分類
Transformers

R
timm
62
0
Regnety 640.seer
其他
RegNetY-64GF特徵/骨幹模型,採用SEER方法在20億張隨機互聯網圖像上自監督預訓練
圖像分類
Transformers

R
timm
32
0
Regnety 320.seer
其他
RegNetY-32GF特徵提取模型,採用SEER方法在20億張隨機網絡圖片上預訓練,適用於圖像分類和特徵提取任務
圖像分類
Transformers

R
timm
19
0
Convnextv2 Pico.fcmae
ConvNeXt-V2自監督特徵表示模型,採用全卷積掩碼自編碼器框架(FCMAE)預訓練,適用於圖像分類和特徵提取任務。
圖像分類
Transformers

C
timm
82
0
Convnextv2 Large.fcmae
基於ConvNeXt-V2的自監督特徵表示模型,採用全卷積掩碼自編碼器框架(FCMAE)進行預訓練,適用於圖像分類和特徵提取任務。
圖像分類
Transformers

C
timm
314
0
Vit Msn Large 7
Apache-2.0
該視覺Transformer模型採用MSN方法預訓練,在少樣本場景下表現出色,適用於圖像分類等任務
圖像分類
Transformers

V
facebook
67
2
Vit Msn Base 4
Apache-2.0
該視覺Transformer模型採用MSN方法預訓練,在少樣本場景下表現優異,適用於圖像分類等任務
圖像分類
Transformers

V
facebook
62
1
Vit Msn Large
Apache-2.0
採用MSN方法預訓練的視覺Transformer模型,在少樣本場景下表現優異
圖像分類
Transformers

V
facebook
48
1
Vit Msn Small
Apache-2.0
該視覺Transformer模型採用MSN方法進行預訓練,適用於少樣本學習場景,特別適合圖像分類任務。
圖像分類
Transformers

V
facebook
3,755
1
Videomae Base Short Ssv2
VideoMAE是基於掩碼自編碼器(MAE)的視頻自監督預訓練模型,在Something-Something-v2數據集上進行了800輪預訓練。
視頻處理
Transformers

V
MCG-NJU
112
2
Swinv2 Large Patch4 Window12to16 192to256 22kto1k Ft
Apache-2.0
Swin Transformer v2是一種視覺Transformer模型,通過分層特徵圖和局部窗口自注意力機制實現高效的圖像分類和密集識別任務。
圖像分類
Transformers

S
microsoft
812
4
Swinv2 Base Patch4 Window16 256
Apache-2.0
Swin Transformer v2是一種視覺Transformer模型,通過分層特徵圖和局部窗口自注意力機制實現高效的圖像分類和密集識別任務。
圖像分類
Transformers

S
microsoft
1,853
3
Swinv2 Base Patch4 Window8 256
Apache-2.0
Swin Transformer v2是一種視覺Transformer模型,通過分層特徵圖和局部窗口自注意力機制實現高效的圖像分類和密集識別任務。
圖像分類
Transformers

S
microsoft
16.61k
7
Swinv2 Small Patch4 Window8 256
Apache-2.0
Swin Transformer v2 是一種視覺Transformer模型,通過分層特徵圖和局部窗口自注意力機制實現高效的圖像處理。
圖像分類
Transformers

S
microsoft
1,836
0
Swinv2 Tiny Patch4 Window8 256
Apache-2.0
Swin Transformer v2是基於ImageNet-1k預訓練的視覺Transformer模型,採用分層特徵圖和局部窗口自注意力機制,具有線性計算複雜度。
圖像分類
Transformers

S
microsoft
25.04k
10
Viwav2vec2 Base 3k
該模型是基於3千小時越南語語音數據預訓練的Wav2Vec2基礎模型,適用於越南語語音識別任務,需在下游任務上微調後使用。
語音識別
Transformers 其他

V
dragonSwing
41
2
Regnet Y 1280 Seer In1k
Apache-2.0
基於ImageNet-1k訓練的RegNet圖像分類模型,採用自監督預訓練和微調方法
圖像分類
Transformers

R
facebook
18
1
Regnet Y 640 Seer In1k
Apache-2.0
基於imagenet-1k訓練的RegNet模型,採用自監督方式在數十億張隨機網絡圖像上預訓練後微調
圖像分類
Transformers

R
facebook
21
0
Dit Large Finetuned Rvlcdip
基於IIT-CDIP預訓練並在RVL-CDIP上微調的文檔圖像分類模型,採用Transformer架構
圖像分類
Transformers

D
microsoft
67
8
Dit Base Finetuned Rvlcdip
DiT是一種基於Transformer的文檔圖像分類模型,在IIT-CDIP數據集上預訓練並在RVL-CDIP數據集上微調
圖像分類
Transformers

D
microsoft
31.99k
30
Beit Large Finetuned Ade 640 640
Apache-2.0
BEiT是一種基於視覺Transformer架構的圖像分割模型,通過自監督預訓練和ADE20k數據集微調實現高效語義分割。
圖像分割
Transformers

B
microsoft
14.97k
14
Core Clinical Mortality Prediction
CORe模型基於BioBERT架構,專門針對臨床記錄、疾病描述和醫學文獻進行了預訓練,用於預測患者院內死亡風險。
文本分類
Transformers 英語

C
DATEXIS
924
3
Beit Large Patch16 384
Apache-2.0
BEiT是一種基於視覺Transformer的圖像分類模型,通過自監督方式在ImageNet-21k上預訓練,並在ImageNet-1k上微調。
圖像分類
B
microsoft
44
0
Tapas Tiny
Apache-2.0
TAPAS是一種基於Transformer的表格問答模型,通過自監督方式在維基百科英文表格數據上預訓練,支持表格問答和蘊含判斷任務。
大型語言模型
Transformers 英語

T
google
44
0
Wav2vec2 Large 960h Lv60 Self
Apache-2.0
Facebook開發的Wav2Vec2大模型,基於960小時Libri-Light和Librispeech語音數據預訓練和微調,採用自訓練目標,在LibriSpeech測試集上達到SOTA效果。
語音識別 英語
W
facebook
56.00k
146
Beit Large Patch16 224
Apache-2.0
BEiT是一種基於視覺Transformer(ViT)架構的圖像分類模型,通過自監督學習在ImageNet-21k上預訓練,並在ImageNet-1k上微調。
圖像分類
B
microsoft
222.46k
1
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98