# 時間序列預測

Yinglong 300m
應龍是一款用於時間序列預測的基礎模型,預訓練於78B時間點,為時間序列預測任務提供強大支持。
氣候模型 Safetensors
Y
qcw2333
1,996
1
Chengsenwang ChatTime 1 7B Base GGUF
Apache-2.0
ChatTime-1-7B-Base是一個專注於時間序列預測的基礎模型,支持多模態時間序列處理。
多模態融合
C
tensorblock
175
0
Chengsenwang ChatTime 1 7B Chat GGUF
Apache-2.0
ChatTime-1-7B-Chat是一個專注於時間序列預測的多模態基礎模型,基於7B參數規模構建。
多模態融合
C
tensorblock
153
0
FFNN
其他
該模型是一個用於時間序列預測的模型,支持英語語言,使用特定的許可證(bethana15)。
物理學模型 英語
F
bethana
22
0
Granite Timeseries Patchtsmixer
基於PatchTSMixer架構的時間序列預測模型,由IBM開發,適用於多變量時間序列預測任務。
氣候模型 Transformers
G
onnx-community
181
0
Granite Timeseries Patchtst
IBM Granite系列的時間序列預測模型,基於PatchTST架構,適用於多種時間序列預測任務。
氣候模型 Transformers
G
onnx-community
182
1
Autogluon Chronos T5 Large
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過量化和縮放將時間序列轉化為標記序列進行訓練。
氣候模型
A
anchovy
25
0
Chattime 1 7B Base
Apache-2.0
ChatTime是一個創新的多模態時間序列基礎模型,將時間序列建模為外語,統一處理時間序列與文本的雙模態輸入/輸出。
多模態融合 Transformers
C
ChengsenWang
700
4
Chronos T5 Large
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過將時間序列轉換為token序列進行訓練,支持概率預測。
氣候模型 Transformers
C
autogluon
59.18k
6
Chronos T5 Tiny
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過量化和縮放將時間序列轉換為token序列進行訓練。
氣候模型 Transformers
C
autogluon
318.45k
12
Chronos T5 Mini
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過將時間序列轉化為token序列進行訓練,支持概率預測。
氣候模型 Transformers
C
autogluon
23.57k
5
Chronos T5 Tiny
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過量化和縮放將時間序列轉化為標記序列進行訓練。
氣候模型 Transformers
C
amazon
573.84k
106
Chronos T5 Base
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過將時間序列轉化為標記序列進行訓練,實現概率預測。
氣候模型 Transformers
C
amazon
1.4M
30
Chronos T5 Small
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過量化和縮放將時間序列轉化為token序列進行訓練,適用於概率預測任務。
氣候模型 Transformers
C
amazon
22.8M
66
Chronos T5 Mini
Apache-2.0
Chronos-T5是基於語言模型架構的預訓練時間序列預測模型,通過將時間序列轉換為標記序列並利用交叉熵損失訓練語言模型,實現概率預測。
氣候模型 Transformers
C
amazon
61.15k
16
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase