2025年最佳的 52 个气候模型工具

Chronos T5 Small
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过量化和缩放将时间序列转化为token序列进行训练,适用于概率预测任务。
气候模型 Transformers
C
amazon
22.8M
66
Chronos Bolt Small
Apache-2.0
Chronos-Bolt是一系列基于T5架构的预训练时间序列基础模型,通过创新分块编码和直接多步预测实现高效时序预测
气候模型 Safetensors
C
autogluon
6.2M
13
Chronos Bolt Base
Apache-2.0
Chronos-Bolt是一系列预训练的时间序列预测模型,支持零样本预测,精度高且推理速度快。
气候模型
C
autogluon
4.7M
22
Chronos Bolt Base
Apache-2.0
Chronos-Bolt是一系列预训练的时间序列预测模型,支持零样本预测,基于T5编码器-解码器架构,训练数据涵盖近千亿时间序列观测点。
气候模型
C
amazon
1.5M
42
Chronos T5 Base
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过将时间序列转化为标记序列进行训练,实现概率预测。
气候模型 Transformers
C
amazon
1.4M
30
Granite Timeseries Ttm R1
Apache-2.0
TinyTimeMixers(TTMs)是IBM Research开源的多变量时间序列预测紧凑型预训练模型,参数不足100万,在零样本和少样本预测任务中表现优异。
气候模型
G
ibm-granite
1.2M
291
Chronos T5 Tiny
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过量化和缩放将时间序列转化为标记序列进行训练。
气候模型 Transformers
C
amazon
573.84k
106
Chronos Bolt Tiny
Apache-2.0
Chronos-Bolt是一系列预训练时间序列预测模型,支持零样本预测,基于T5编码器-解码器架构,训练数据涵盖近千亿时间序列观测值。
气候模型
C
amazon
392.39k
19
Moirai Moe 1.0 R Base
这是一个预训练的时间序列预测模型,专注于时序数据分析与预测任务。
气候模型 Safetensors
M
Salesforce
374.41k
9
Chronos Bolt Mini
Apache-2.0
Chronos-Bolt是一系列可用于零样本预测的预训练时间序列预测模型,基于T5编码器-解码器架构,在近1000亿条时间序列观测数据上训练。
气候模型 Safetensors
C
autogluon
360.42k
7
Chronos Bolt Small
Apache-2.0
Chronos-Bolt是一系列预训练时间序列预测模型,支持零样本预测,基于T5编码器-解码器架构,训练数据涵盖近千亿时间序列观测点。
气候模型 Safetensors
C
amazon
340.81k
10
Chronos Bolt Mini
Apache-2.0
Chronos-Bolt是一系列预训练时间序列预测模型,支持零样本预测,基于T5编码器-解码器架构,训练数据包含近1000亿个时间序列观测点。
气候模型
C
amazon
330.76k
5
Chronos T5 Tiny
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过量化和缩放将时间序列转换为token序列进行训练。
气候模型 Transformers
C
autogluon
318.45k
12
Granite Timeseries Ttm R2
Apache-2.0
TinyTimeMixers(TTMs)是由IBM Research开源的多变量时间序列预测紧凑型预训练模型,参数从100万起,首次提出时间序列预测领域的'微型'预训练模型概念。
气候模型 Safetensors
G
ibm-granite
217.99k
89
Chronos T5 Large
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过量化和缩放将时间序列转化为token序列进行训练,支持概率预测。
气候模型 Transformers
C
amazon
156.60k
139
Moirai Moe 1.0 R Small
一个基于PyTorch的时间序列预测预训练模型,适用于多种时序数据分析任务
气候模型
M
Salesforce
130.92k
8
Moirai 1.0 R Small
Moirai是基于掩码编码器的通用时间序列预测Transformer,在LOTSA数据集上预训练的大型时间序列模型。
气候模型 Transformers
M
Salesforce
116.77k
28
Chronos T5 Base
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过量化和缩放将时间序列转化为token序列进行训练。
气候模型 Transformers
C
autogluon
82.42k
5
Chronos Bolt Tiny
Apache-2.0
Chronos-Bolt是一系列预训练时间序列预测模型,支持零样本预测,基于T5编码器-解码器架构,训练数据涵盖近千亿时间序列观测点。
气候模型 Safetensors
C
autogluon
68.20k
11
Chronos T5 Mini
Apache-2.0
Chronos-T5是基于语言模型架构的预训练时间序列预测模型,通过将时间序列转换为标记序列并利用交叉熵损失训练语言模型,实现概率预测。
气候模型 Transformers
C
amazon
61.15k
16
Chronos T5 Large
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过将时间序列转换为token序列进行训练,支持概率预测。
气候模型 Transformers
C
autogluon
59.18k
6
Chronos T5 Small
Apache-2.0
Chronos-T5是基于语言模型架构的预训练时间序列预测模型,通过量化和缩放将时间序列转化为标记序列进行训练,适用于多种时间序列预测任务。
气候模型 Transformers
C
autogluon
54.04k
5
Moirai 1.0 R Base
Moirai是基于掩码编码器的通用时间序列预测Transformer,在LOTSA数据集上预训练的大型时间序列模型。
气候模型 Transformers
M
Salesforce
52.70k
29
Moirai 1.0 R Large
Moirai是基于掩码编码器的通用时间序列预测Transformer,在LOTSA数据集上预训练的大型时序模型
气候模型 Transformers
M
Salesforce
35.58k
77
Moirai 1.1 R Base
Moirai-1.0-R模型的全新升级版本,在Monash知识库的40个数据集上取得显著进步,特别针对低频数据场景优化。
气候模型 Transformers
M
Salesforce
26.77k
7
Chronos T5 Mini
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过将时间序列转化为token序列进行训练,支持概率预测。
气候模型 Transformers
C
autogluon
23.57k
5
Moirai 1.1 R Small
Moirai-1.1-R是Salesforce发布的时间序列预测基础模型,在低频数据(如年数据和季度数据)上表现优异,相比前代模型性能提升约20%。
气候模型 Transformers
M
Salesforce
14.61k
6
Moirai 1.1 R Large
Moirai-1.1-R是Salesforce推出的时间序列预测基础模型,针对低频数据预测性能显著提升。
气候模型 Transformers
M
Salesforce
14.11k
26
Timemoe 200M
Apache-2.0
TimeMoE-200M 是一个基于专家混合(Mixture of Experts, MoE)架构的十亿级时间序列基础模型,专注于时间序列预测任务。
气候模型
T
Maple728
14.01k
7
Chronos Bolt Base Fine Tuned V2
基于amazon/chronos-bolt-base架构微调的时间序列预测模型,专门针对间歇性需求预测任务优化
气候模型 Transformers
C
nieche
6,523
0
Timer Base 84m
Apache-2.0
Timer是一个8400万参数的轻量级生成式Transformer模型,专为时间序列预测任务设计,支持零样本点预测。
气候模型
T
thuml
6,491
35
Chronos Bolt Base Fine Tuned V1
基于1.9亿时间序列数据点微调的间歇性需求预测模型
气候模型 Transformers
C
nieche
5,944
0
Chronos Bolt Base Fine Tuned V3
基于专有数据集微调的时间序列预测模型,特别适用于间歇性需求预测场景。
气候模型 Transformers
C
nieche
5,873
0
Test Patchtst
Apache-2.0
PatchTST是一个预训练的时间序列基础模型,专注于时间序列预测任务。
气候模型
T
ibm-research
5,593
0
Test Patchtsmixer
Apache-2.0
PatchTSMixer 是 IBM Granite 项目下的一个时间序列预测基础模型,采用创新的 Patch 混合架构,适用于多种时间序列预测任务。
气候模型
T
ibm-research
5,300
0
Time Series Transformer Tourism Monthly
MIT
这是一个基于Transformer架构的时间序列预测模型,在tourism-monthly数据集上进行了30轮训练。
气候模型 Transformers
T
huggingface
4,595
21
Timesfm 1.0 200m
Apache-2.0
Google Research开发的预训练时间序列基础模型,专注于单变量时间序列预测
气候模型
T
google
2,797
738
Yinglong 300m
应龙是一款用于时间序列预测的基础模型,预训练于78B时间点,为时间序列预测任务提供强大支持。
气候模型 Safetensors
Y
qcw2333
1,996
1
Granite Timeseries Patchtsmixer
Apache-2.0
轻量级快速多元时间序列预测模型,在ETTh1数据集上达到0.37的测试集MSE
气候模型 Transformers
G
ibm-granite
1,905
17
Granite Timeseries Patchtst
Apache-2.0
PatchTST是一个基于Transformer的时间序列预测模型,专为长期时间序列预测设计,采用子序列块和通道独立性技术提升预测精度。
气候模型 Transformers
G
ibm-granite
1,505
11
Test Ttm V1
Apache-2.0
TinyTimeMixer (TTM) 是一个轻量级的时间序列预测基础模型,专注于高效的时间序列分析任务。
气候模型
T
ibm-research
603
0
Chronos Bolt Small Fine Tuned V2
基于amazon/chronos-bolt-small精调的时间序列预测模型,使用2500万行专有数据训练
气候模型 Transformers
C
nieche
495
1
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase