Chronos T5 Small
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過量化和縮放將時間序列轉化為token序列進行訓練,適用於概率預測任務。
氣候模型
Transformers

C
amazon
22.8M
66
Chronos Bolt Small
Apache-2.0
Chronos-Bolt是一系列基於T5架構的預訓練時間序列基礎模型,通過創新分塊編碼和直接多步預測實現高效時序預測
氣候模型
Safetensors
C
autogluon
6.2M
13
Chronos Bolt Base
Apache-2.0
Chronos-Bolt是一系列預訓練的時間序列預測模型,支持零樣本預測,精度高且推理速度快。
氣候模型
C
autogluon
4.7M
22
Chronos Bolt Base
Apache-2.0
Chronos-Bolt是一系列預訓練的時間序列預測模型,支持零樣本預測,基於T5編碼器-解碼器架構,訓練數據涵蓋近千億時間序列觀測點。
氣候模型
C
amazon
1.5M
42
Chronos T5 Base
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過將時間序列轉化為標記序列進行訓練,實現概率預測。
氣候模型
Transformers

C
amazon
1.4M
30
Granite Timeseries Ttm R1
Apache-2.0
TinyTimeMixers(TTMs)是IBM Research開源的多變量時間序列預測緊湊型預訓練模型,參數不足100萬,在零樣本和少樣本預測任務中表現優異。
氣候模型
G
ibm-granite
1.2M
291
Chronos T5 Tiny
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過量化和縮放將時間序列轉化為標記序列進行訓練。
氣候模型
Transformers

C
amazon
573.84k
106
Chronos Bolt Tiny
Apache-2.0
Chronos-Bolt是一系列預訓練時間序列預測模型,支持零樣本預測,基於T5編碼器-解碼器架構,訓練數據涵蓋近千億時間序列觀測值。
氣候模型
C
amazon
392.39k
19
Moirai Moe 1.0 R Base
這是一個預訓練的時間序列預測模型,專注於時序數據分析與預測任務。
氣候模型
Safetensors
M
Salesforce
374.41k
9
Chronos Bolt Mini
Apache-2.0
Chronos-Bolt是一系列可用於零樣本預測的預訓練時間序列預測模型,基於T5編碼器-解碼器架構,在近1000億條時間序列觀測數據上訓練。
氣候模型
Safetensors
C
autogluon
360.42k
7
Chronos Bolt Small
Apache-2.0
Chronos-Bolt是一系列預訓練時間序列預測模型,支持零樣本預測,基於T5編碼器-解碼器架構,訓練數據涵蓋近千億時間序列觀測點。
氣候模型
Safetensors
C
amazon
340.81k
10
Chronos Bolt Mini
Apache-2.0
Chronos-Bolt是一系列預訓練時間序列預測模型,支持零樣本預測,基於T5編碼器-解碼器架構,訓練數據包含近1000億個時間序列觀測點。
氣候模型
C
amazon
330.76k
5
Chronos T5 Tiny
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過量化和縮放將時間序列轉換為token序列進行訓練。
氣候模型
Transformers

C
autogluon
318.45k
12
Granite Timeseries Ttm R2
Apache-2.0
TinyTimeMixers(TTMs)是由IBM Research開源的多變量時間序列預測緊湊型預訓練模型,參數從100萬起,首次提出時間序列預測領域的'微型'預訓練模型概念。
氣候模型
Safetensors
G
ibm-granite
217.99k
89
Chronos T5 Large
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過量化和縮放將時間序列轉化為token序列進行訓練,支持概率預測。
氣候模型
Transformers

C
amazon
156.60k
139
Moirai Moe 1.0 R Small
一個基於PyTorch的時間序列預測預訓練模型,適用於多種時序數據分析任務
氣候模型
M
Salesforce
130.92k
8
Moirai 1.0 R Small
Moirai是基於掩碼編碼器的通用時間序列預測Transformer,在LOTSA數據集上預訓練的大型時間序列模型。
氣候模型
Transformers

M
Salesforce
116.77k
28
Chronos T5 Base
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過量化和縮放將時間序列轉化為token序列進行訓練。
氣候模型
Transformers

C
autogluon
82.42k
5
Chronos Bolt Tiny
Apache-2.0
Chronos-Bolt是一系列預訓練時間序列預測模型,支持零樣本預測,基於T5編碼器-解碼器架構,訓練數據涵蓋近千億時間序列觀測點。
氣候模型
Safetensors
C
autogluon
68.20k
11
Chronos T5 Mini
Apache-2.0
Chronos-T5是基於語言模型架構的預訓練時間序列預測模型,通過將時間序列轉換為標記序列並利用交叉熵損失訓練語言模型,實現概率預測。
氣候模型
Transformers

C
amazon
61.15k
16
Chronos T5 Large
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過將時間序列轉換為token序列進行訓練,支持概率預測。
氣候模型
Transformers

C
autogluon
59.18k
6
Chronos T5 Small
Apache-2.0
Chronos-T5是基於語言模型架構的預訓練時間序列預測模型,通過量化和縮放將時間序列轉化為標記序列進行訓練,適用於多種時間序列預測任務。
氣候模型
Transformers

C
autogluon
54.04k
5
Moirai 1.0 R Base
Moirai是基於掩碼編碼器的通用時間序列預測Transformer,在LOTSA數據集上預訓練的大型時間序列模型。
氣候模型
Transformers

M
Salesforce
52.70k
29
Moirai 1.0 R Large
Moirai是基於掩碼編碼器的通用時間序列預測Transformer,在LOTSA數據集上預訓練的大型時序模型
氣候模型
Transformers

M
Salesforce
35.58k
77
Moirai 1.1 R Base
Moirai-1.0-R模型的全新升級版本,在Monash知識庫的40個數據集上取得顯著進步,特別針對低頻數據場景優化。
氣候模型
Transformers

M
Salesforce
26.77k
7
Chronos T5 Mini
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過將時間序列轉化為token序列進行訓練,支持概率預測。
氣候模型
Transformers

C
autogluon
23.57k
5
Moirai 1.1 R Small
Moirai-1.1-R是Salesforce發佈的時間序列預測基礎模型,在低頻數據(如年數據和季度數據)上表現優異,相比前代模型性能提升約20%。
氣候模型
Transformers

M
Salesforce
14.61k
6
Moirai 1.1 R Large
Moirai-1.1-R是Salesforce推出的時間序列預測基礎模型,針對低頻數據預測性能顯著提升。
氣候模型
Transformers

M
Salesforce
14.11k
26
Timemoe 200M
Apache-2.0
TimeMoE-200M 是一個基於專家混合(Mixture of Experts, MoE)架構的十億級時間序列基礎模型,專注於時間序列預測任務。
氣候模型
T
Maple728
14.01k
7
Chronos Bolt Base Fine Tuned V2
基於amazon/chronos-bolt-base架構微調的時間序列預測模型,專門針對間歇性需求預測任務優化
氣候模型
Transformers

C
nieche
6,523
0
Timer Base 84m
Apache-2.0
Timer是一個8400萬參數的輕量級生成式Transformer模型,專為時間序列預測任務設計,支持零樣本點預測。
氣候模型
T
thuml
6,491
35
Chronos Bolt Base Fine Tuned V1
基於1.9億時間序列數據點微調的間歇性需求預測模型
氣候模型
Transformers

C
nieche
5,944
0
Chronos Bolt Base Fine Tuned V3
基於專有數據集微調的時間序列預測模型,特別適用於間歇性需求預測場景。
氣候模型
Transformers

C
nieche
5,873
0
Test Patchtst
Apache-2.0
PatchTST是一個預訓練的時間序列基礎模型,專注於時間序列預測任務。
氣候模型
T
ibm-research
5,593
0
Test Patchtsmixer
Apache-2.0
PatchTSMixer 是 IBM Granite 項目下的一個時間序列預測基礎模型,採用創新的 Patch 混合架構,適用於多種時間序列預測任務。
氣候模型
T
ibm-research
5,300
0
Time Series Transformer Tourism Monthly
MIT
這是一個基於Transformer架構的時間序列預測模型,在tourism-monthly數據集上進行了30輪訓練。
氣候模型
Transformers

T
huggingface
4,595
21
Timesfm 1.0 200m
Apache-2.0
Google Research開發的預訓練時間序列基礎模型,專注於單變量時間序列預測
氣候模型
T
google
2,797
738
Yinglong 300m
應龍是一款用於時間序列預測的基礎模型,預訓練於78B時間點,為時間序列預測任務提供強大支持。
氣候模型
Safetensors
Y
qcw2333
1,996
1
Granite Timeseries Patchtsmixer
Apache-2.0
輕量級快速多元時間序列預測模型,在ETTh1數據集上達到0.37的測試集MSE
氣候模型
Transformers

G
ibm-granite
1,905
17
Granite Timeseries Patchtst
Apache-2.0
PatchTST是一個基於Transformer的時間序列預測模型,專為長期時間序列預測設計,採用子序列塊和通道獨立性技術提升預測精度。
氣候模型
Transformers

G
ibm-granite
1,505
11
Test Ttm V1
Apache-2.0
TinyTimeMixer (TTM) 是一個輕量級的時間序列預測基礎模型,專注於高效的時間序列分析任務。
氣候模型
T
ibm-research
603
0
Chronos Bolt Small Fine Tuned V2
基於amazon/chronos-bolt-small精調的時間序列預測模型,使用2500萬行專有數據訓練
氣候模型
Transformers

C
nieche
495
1
- 1
- 2