# 时间序列预测

Yinglong 300m
应龙是一款用于时间序列预测的基础模型,预训练于78B时间点,为时间序列预测任务提供强大支持。
气候模型 Safetensors
Y
qcw2333
1,996
1
Chengsenwang ChatTime 1 7B Base GGUF
Apache-2.0
ChatTime-1-7B-Base是一个专注于时间序列预测的基础模型,支持多模态时间序列处理。
多模态融合
C
tensorblock
175
0
Chengsenwang ChatTime 1 7B Chat GGUF
Apache-2.0
ChatTime-1-7B-Chat是一个专注于时间序列预测的多模态基础模型,基于7B参数规模构建。
多模态融合
C
tensorblock
153
0
FFNN
其他
该模型是一个用于时间序列预测的模型,支持英语语言,使用特定的许可证(bethana15)。
物理学模型 英语
F
bethana
22
0
Granite Timeseries Patchtsmixer
基于PatchTSMixer架构的时间序列预测模型,由IBM开发,适用于多变量时间序列预测任务。
气候模型 Transformers
G
onnx-community
181
0
Granite Timeseries Patchtst
IBM Granite系列的时间序列预测模型,基于PatchTST架构,适用于多种时间序列预测任务。
气候模型 Transformers
G
onnx-community
182
1
Autogluon Chronos T5 Large
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过量化和缩放将时间序列转化为标记序列进行训练。
气候模型
A
anchovy
25
0
Chattime 1 7B Base
Apache-2.0
ChatTime是一个创新的多模态时间序列基础模型,将时间序列建模为外语,统一处理时间序列与文本的双模态输入/输出。
多模态融合 Transformers
C
ChengsenWang
700
4
Chronos T5 Large
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过将时间序列转换为token序列进行训练,支持概率预测。
气候模型 Transformers
C
autogluon
59.18k
6
Chronos T5 Tiny
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过量化和缩放将时间序列转换为token序列进行训练。
气候模型 Transformers
C
autogluon
318.45k
12
Chronos T5 Mini
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过将时间序列转化为token序列进行训练,支持概率预测。
气候模型 Transformers
C
autogluon
23.57k
5
Chronos T5 Tiny
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过量化和缩放将时间序列转化为标记序列进行训练。
气候模型 Transformers
C
amazon
573.84k
106
Chronos T5 Base
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过将时间序列转化为标记序列进行训练,实现概率预测。
气候模型 Transformers
C
amazon
1.4M
30
Chronos T5 Small
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过量化和缩放将时间序列转化为token序列进行训练,适用于概率预测任务。
气候模型 Transformers
C
amazon
22.8M
66
Chronos T5 Mini
Apache-2.0
Chronos-T5是基于语言模型架构的预训练时间序列预测模型,通过将时间序列转换为标记序列并利用交叉熵损失训练语言模型,实现概率预测。
气候模型 Transformers
C
amazon
61.15k
16
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase