Chronos Bolt Base
Chronos-Bolt是一系列预训练的时间序列预测模型,支持零样本预测,基于T5编码器-解码器架构,训练数据涵盖近千亿时间序列观测点。
下载量 1.5M
发布时间 : 11/25/2024
模型简介
Chronos-Bolt是高效的时间序列预测基础模型,采用直接多步预测方法,相比原始Chronos模型速度提升高达250倍,内存效率提高20倍,同时保持更高的预测精度。
模型特点
高效推理
相比原始Chronos同尺寸模型,推理速度提升高达250倍,内存效率提高20倍
零样本预测
无需微调即可直接应用于未见过的时序数据
多规格选择
提供从900万参数到2.05亿参数的不同规格模型,适应不同场景需求
分位数预测
直接生成多步分位数预测,提供概率性预测结果
模型能力
时间序列预测
零样本学习
多步预测
分位数预测
使用案例
商业预测
销售预测
预测未来销售趋势
在27个数据集上表现优于统计模型和深度学习模型
运营管理
需求预测
预测产品需求变化
零样本预测精度超越专用模型
🚀 Chronos - Bolt⚡ (Base)
Chronos - Bolt是一系列预训练的时间序列预测模型,可用于零样本预测。它基于T5编解码器架构,在近1000亿个时间序列观测数据上进行了训练。该模型将历史时间序列上下文分块为多个观测值的片段,然后输入到编码器中。解码器再利用这些表示直接生成多个未来步骤的分位数预测,这种方法被称为直接多步预测。与相同大小的原始Chronos模型相比,Chronos - Bolt模型的速度快达250倍,内存效率提高20倍。
🚀 快速开始
2025年2月14日更新
Chronos - Bolt模型现已在Amazon SageMaker JumpStart上可用!查看 教程笔记本,了解如何用几行代码部署Chronos端点以用于生产环境。
✨ 主要特性
性能优势
- 速度快:以下图表比较了Chronos - Bolt与原始Chronos模型在预测1024个时间序列时的推理时间,上下文长度为512个观测值,预测范围为64步。
模型规格
Chronos - Bolt模型有以下几种规格:
模型 | 参数数量 | 基于的模型 |
---|---|---|
[chronos - bolt - tiny](https://huggingface.co/amazon/chronos - bolt - tiny) | 9M | [t5 - efficient - tiny](https://huggingface.co/google/t5 - efficient - tiny) |
[chronos - bolt - mini](https://huggingface.co/amazon/chronos - bolt - mini) | 21M | [t5 - efficient - mini](https://huggingface.co/google/t5 - efficient - mini) |
[chronos - bolt - small](https://huggingface.co/amazon/chronos - bolt - small) | 48M | [t5 - efficient - small](https://huggingface.co/google/t5 - efficient - small) |
[chronos - bolt - base](https://huggingface.co/amazon/chronos - bolt - base) | 205M | [t5 - efficient - base](https://huggingface.co/google/t5 - efficient - base) |
📦 安装指南
使用AutoGluon时安装依赖
pip install autogluon
部署到SageMaker时更新SDK
pip install -U sagemaker
使用推理库时安装包
pip install chronos - forecasting
💻 使用示例
基础用法
使用AutoGluon进行零样本推理
from autogluon.timeseries import TimeSeriesPredictor, TimeSeriesDataFrame
df = TimeSeriesDataFrame("https://autogluon.s3.amazonaws.com/datasets/timeseries/m4_hourly/train.csv")
predictor = TimeSeriesPredictor(prediction_length=48).fit(
df,
hyperparameters={
"Chronos": {"model_path": "amazon/chronos-bolt-base"},
},
)
predictions = predictor.predict(df)
将Chronos - Bolt端点部署到SageMaker
from sagemaker.jumpstart.model import JumpStartModel
model = JumpStartModel(
model_id="autogluon-forecasting-chronos-bolt-base",
instance_type="ml.c5.2xlarge",
)
predictor = model.deploy()
使用推理库进行推理
import pandas as pd # requires: pip install pandas
import torch
from chronos import BaseChronosPipeline
pipeline = BaseChronosPipeline.from_pretrained(
"amazon/chronos-bolt-base",
device_map="cuda", # use "cpu" for CPU inference and "mps" for Apple Silicon
torch_dtype=torch.bfloat16,
)
df = pd.read_csv(
"https://raw.githubusercontent.com/AileenNielsen/TimeSeriesAnalysisWithPython/master/data/AirPassengers.csv"
)
# context must be either a 1D tensor, a list of 1D tensors,
# or a left-padded 2D tensor with batch as the first dimension
# Chronos-Bolt models generate quantile forecasts, so forecast has shape
# [num_series, num_quantiles, prediction_length].
forecast = pipeline.predict(
context=torch.tensor(df["#Passengers"]), prediction_length=12
)
高级用法
向SageMaker端点发送时间序列数据
import pandas as pd
df = pd.read_csv("https://raw.githubusercontent.com/AileenNielsen/TimeSeriesAnalysisWithPython/master/data/AirPassengers.csv")
payload = {
"inputs": [
{"target": df["#Passengers"].tolist()}
],
"parameters": {
"prediction_length": 12,
}
}
forecast = predictor.predict(payload)["predictions"]
📚 详细文档
使用AutoGluon
使用Chronos进行生产用例的推荐方法是通过 AutoGluon。AutoGluon提供了对Chronos模型的轻松 微调,通过协变量回归器将 协变量 纳入预测,以及与其他统计和机器学习模型进行 集成 以实现最高准确性。查看AutoGluon Chronos 教程 了解更多详情。
部署到SageMaker
SageMaker JumpStart使得用几行代码就可以轻松部署Chronos端点以用于生产环境。Chronos - Bolt端点可以部署到 CPU和GPU 实例上,并且支持使用 协变量 进行预测。更多详情可查看 示例笔记本。
使用推理库
你也可以在GitHub 配套仓库 中安装该包。这主要用于研究目的,并为Chronos模型提供了一个最小接口。
📄 引用
如果你发现Chronos或Chronos - Bolt模型对你的研究有用,请考虑引用相关 论文:
@article{ansari2024chronos,
title={Chronos: Learning the Language of Time Series},
author={Ansari, Abdul Fatir and Stella, Lorenzo and Turkmen, Caner and Zhang, Xiyuan, and Mercado, Pedro and Shen, Huibin and Shchur, Oleksandr and Rangapuram, Syama Syndar and Pineda Arango, Sebastian and Kapoor, Shubham and Zschiegner, Jasper and Maddix, Danielle C. and Mahoney, Michael W. and Torkkola, Kari and Gordon Wilson, Andrew and Bohlke-Schneider, Michael and Wang, Yuyang},
journal={Transactions on Machine Learning Research},
issn={2835-8856},
year={2024},
url={https://openreview.net/forum?id=gerNCVqqtR}
}
📄 许可证
本项目采用Apache - 2.0许可证。
Chronos T5 Small
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过量化和缩放将时间序列转化为token序列进行训练,适用于概率预测任务。
气候模型
Transformers

C
amazon
22.8M
66
Chronos Bolt Small
Apache-2.0
Chronos-Bolt是一系列基于T5架构的预训练时间序列基础模型,通过创新分块编码和直接多步预测实现高效时序预测
气候模型
Safetensors
C
autogluon
6.2M
13
Chronos Bolt Base
Apache-2.0
Chronos-Bolt是一系列预训练的时间序列预测模型,支持零样本预测,精度高且推理速度快。
气候模型
Safetensors
C
autogluon
4.7M
22
Chronos Bolt Base
Apache-2.0
Chronos-Bolt是一系列预训练的时间序列预测模型,支持零样本预测,基于T5编码器-解码器架构,训练数据涵盖近千亿时间序列观测点。
气候模型
Safetensors
C
amazon
1.5M
42
Chronos T5 Base
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过将时间序列转化为标记序列进行训练,实现概率预测。
气候模型
Transformers

C
amazon
1.4M
30
Granite Timeseries Ttm R1
Apache-2.0
TinyTimeMixers(TTMs)是IBM Research开源的多变量时间序列预测紧凑型预训练模型,参数不足100万,在零样本和少样本预测任务中表现优异。
气候模型
Safetensors
G
ibm-granite
1.2M
291
Chronos T5 Tiny
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过量化和缩放将时间序列转化为标记序列进行训练。
气候模型
Transformers

C
amazon
573.84k
106
Chronos Bolt Tiny
Apache-2.0
Chronos-Bolt是一系列预训练时间序列预测模型,支持零样本预测,基于T5编码器-解码器架构,训练数据涵盖近千亿时间序列观测值。
气候模型
Safetensors
C
amazon
392.39k
19
Moirai Moe 1.0 R Base
这是一个预训练的时间序列预测模型,专注于时序数据分析与预测任务。
气候模型
Safetensors
M
Salesforce
374.41k
9
Chronos Bolt Mini
Apache-2.0
Chronos-Bolt是一系列可用于零样本预测的预训练时间序列预测模型,基于T5编码器-解码器架构,在近1000亿条时间序列观测数据上训练。
气候模型
Safetensors
C
autogluon
360.42k
7
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98