Chronos Bolt Base
Chronos-Bolt是一系列預訓練的時間序列預測模型,支持零樣本預測,基於T5編碼器-解碼器架構,訓練數據涵蓋近千億時間序列觀測點。
下載量 1.5M
發布時間 : 11/25/2024
模型概述
Chronos-Bolt是高效的時間序列預測基礎模型,採用直接多步預測方法,相比原始Chronos模型速度提升高達250倍,內存效率提高20倍,同時保持更高的預測精度。
模型特點
高效推理
相比原始Chronos同尺寸模型,推理速度提升高達250倍,內存效率提高20倍
零樣本預測
無需微調即可直接應用於未見過的時序數據
多規格選擇
提供從900萬參數到2.05億參數的不同規格模型,適應不同場景需求
分位數預測
直接生成多步分位數預測,提供概率性預測結果
模型能力
時間序列預測
零樣本學習
多步預測
分位數預測
使用案例
商業預測
銷售預測
預測未來銷售趨勢
在27個數據集上表現優於統計模型和深度學習模型
運營管理
需求預測
預測產品需求變化
零樣本預測精度超越專用模型
🚀 Chronos - Bolt⚡ (Base)
Chronos - Bolt是一系列預訓練的時間序列預測模型,可用於零樣本預測。它基於T5編解碼器架構,在近1000億個時間序列觀測數據上進行了訓練。該模型將歷史時間序列上下文分塊為多個觀測值的片段,然後輸入到編碼器中。解碼器再利用這些表示直接生成多個未來步驟的分位數預測,這種方法被稱為直接多步預測。與相同大小的原始Chronos模型相比,Chronos - Bolt模型的速度快達250倍,內存效率提高20倍。
🚀 快速開始
2025年2月14日更新
Chronos - Bolt模型現已在Amazon SageMaker JumpStart上可用!查看 教程筆記本,瞭解如何用幾行代碼部署Chronos端點以用於生產環境。
✨ 主要特性
性能優勢
- 速度快:以下圖表比較了Chronos - Bolt與原始Chronos模型在預測1024個時間序列時的推理時間,上下文長度為512個觀測值,預測範圍為64步。
模型規格
Chronos - Bolt模型有以下幾種規格:
模型 | 參數數量 | 基於的模型 |
---|---|---|
[chronos - bolt - tiny](https://huggingface.co/amazon/chronos - bolt - tiny) | 9M | [t5 - efficient - tiny](https://huggingface.co/google/t5 - efficient - tiny) |
[chronos - bolt - mini](https://huggingface.co/amazon/chronos - bolt - mini) | 21M | [t5 - efficient - mini](https://huggingface.co/google/t5 - efficient - mini) |
[chronos - bolt - small](https://huggingface.co/amazon/chronos - bolt - small) | 48M | [t5 - efficient - small](https://huggingface.co/google/t5 - efficient - small) |
[chronos - bolt - base](https://huggingface.co/amazon/chronos - bolt - base) | 205M | [t5 - efficient - base](https://huggingface.co/google/t5 - efficient - base) |
📦 安裝指南
使用AutoGluon時安裝依賴
pip install autogluon
部署到SageMaker時更新SDK
pip install -U sagemaker
使用推理庫時安裝包
pip install chronos - forecasting
💻 使用示例
基礎用法
使用AutoGluon進行零樣本推理
from autogluon.timeseries import TimeSeriesPredictor, TimeSeriesDataFrame
df = TimeSeriesDataFrame("https://autogluon.s3.amazonaws.com/datasets/timeseries/m4_hourly/train.csv")
predictor = TimeSeriesPredictor(prediction_length=48).fit(
df,
hyperparameters={
"Chronos": {"model_path": "amazon/chronos-bolt-base"},
},
)
predictions = predictor.predict(df)
將Chronos - Bolt端點部署到SageMaker
from sagemaker.jumpstart.model import JumpStartModel
model = JumpStartModel(
model_id="autogluon-forecasting-chronos-bolt-base",
instance_type="ml.c5.2xlarge",
)
predictor = model.deploy()
使用推理庫進行推理
import pandas as pd # requires: pip install pandas
import torch
from chronos import BaseChronosPipeline
pipeline = BaseChronosPipeline.from_pretrained(
"amazon/chronos-bolt-base",
device_map="cuda", # use "cpu" for CPU inference and "mps" for Apple Silicon
torch_dtype=torch.bfloat16,
)
df = pd.read_csv(
"https://raw.githubusercontent.com/AileenNielsen/TimeSeriesAnalysisWithPython/master/data/AirPassengers.csv"
)
# context must be either a 1D tensor, a list of 1D tensors,
# or a left-padded 2D tensor with batch as the first dimension
# Chronos-Bolt models generate quantile forecasts, so forecast has shape
# [num_series, num_quantiles, prediction_length].
forecast = pipeline.predict(
context=torch.tensor(df["#Passengers"]), prediction_length=12
)
高級用法
向SageMaker端點發送時間序列數據
import pandas as pd
df = pd.read_csv("https://raw.githubusercontent.com/AileenNielsen/TimeSeriesAnalysisWithPython/master/data/AirPassengers.csv")
payload = {
"inputs": [
{"target": df["#Passengers"].tolist()}
],
"parameters": {
"prediction_length": 12,
}
}
forecast = predictor.predict(payload)["predictions"]
📚 詳細文檔
使用AutoGluon
使用Chronos進行生產用例的推薦方法是通過 AutoGluon。AutoGluon提供了對Chronos模型的輕鬆 微調,通過協變量回歸器將 協變量 納入預測,以及與其他統計和機器學習模型進行 集成 以實現最高準確性。查看AutoGluon Chronos 教程 瞭解更多詳情。
部署到SageMaker
SageMaker JumpStart使得用幾行代碼就可以輕鬆部署Chronos端點以用於生產環境。Chronos - Bolt端點可以部署到 CPU和GPU 實例上,並且支持使用 協變量 進行預測。更多詳情可查看 示例筆記本。
使用推理庫
你也可以在GitHub 配套倉庫 中安裝該包。這主要用於研究目的,併為Chronos模型提供了一個最小接口。
📄 引用
如果你發現Chronos或Chronos - Bolt模型對你的研究有用,請考慮引用相關 論文:
@article{ansari2024chronos,
title={Chronos: Learning the Language of Time Series},
author={Ansari, Abdul Fatir and Stella, Lorenzo and Turkmen, Caner and Zhang, Xiyuan, and Mercado, Pedro and Shen, Huibin and Shchur, Oleksandr and Rangapuram, Syama Syndar and Pineda Arango, Sebastian and Kapoor, Shubham and Zschiegner, Jasper and Maddix, Danielle C. and Mahoney, Michael W. and Torkkola, Kari and Gordon Wilson, Andrew and Bohlke-Schneider, Michael and Wang, Yuyang},
journal={Transactions on Machine Learning Research},
issn={2835-8856},
year={2024},
url={https://openreview.net/forum?id=gerNCVqqtR}
}
📄 許可證
本項目採用Apache - 2.0許可證。
Chronos T5 Small
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過量化和縮放將時間序列轉化為token序列進行訓練,適用於概率預測任務。
氣候模型
Transformers

C
amazon
22.8M
66
Chronos Bolt Small
Apache-2.0
Chronos-Bolt是一系列基於T5架構的預訓練時間序列基礎模型,通過創新分塊編碼和直接多步預測實現高效時序預測
氣候模型
Safetensors
C
autogluon
6.2M
13
Chronos Bolt Base
Apache-2.0
Chronos-Bolt是一系列預訓練的時間序列預測模型,支持零樣本預測,精度高且推理速度快。
氣候模型
Safetensors
C
autogluon
4.7M
22
Chronos Bolt Base
Apache-2.0
Chronos-Bolt是一系列預訓練的時間序列預測模型,支持零樣本預測,基於T5編碼器-解碼器架構,訓練數據涵蓋近千億時間序列觀測點。
氣候模型
Safetensors
C
amazon
1.5M
42
Chronos T5 Base
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過將時間序列轉化為標記序列進行訓練,實現概率預測。
氣候模型
Transformers

C
amazon
1.4M
30
Granite Timeseries Ttm R1
Apache-2.0
TinyTimeMixers(TTMs)是IBM Research開源的多變量時間序列預測緊湊型預訓練模型,參數不足100萬,在零樣本和少樣本預測任務中表現優異。
氣候模型
Safetensors
G
ibm-granite
1.2M
291
Chronos T5 Tiny
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過量化和縮放將時間序列轉化為標記序列進行訓練。
氣候模型
Transformers

C
amazon
573.84k
106
Chronos Bolt Tiny
Apache-2.0
Chronos-Bolt是一系列預訓練時間序列預測模型,支持零樣本預測,基於T5編碼器-解碼器架構,訓練數據涵蓋近千億時間序列觀測值。
氣候模型
Safetensors
C
amazon
392.39k
19
Moirai Moe 1.0 R Base
這是一個預訓練的時間序列預測模型,專注於時序數據分析與預測任務。
氣候模型
Safetensors
M
Salesforce
374.41k
9
Chronos Bolt Mini
Apache-2.0
Chronos-Bolt是一系列可用於零樣本預測的預訓練時間序列預測模型,基於T5編碼器-解碼器架構,在近1000億條時間序列觀測數據上訓練。
氣候模型
Safetensors
C
autogluon
360.42k
7
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98