🚀 Chronos-T5 (Base)
Chronos是一系列基于语言模型架构的预训练时间序列预测模型。它通过缩放和量化将时间序列转换为一系列标记,然后使用交叉熵损失在这些标记上训练语言模型。训练完成后,通过在给定历史上下文的情况下对多个未来轨迹进行采样,即可获得概率预测。Chronos模型已经在大量公开可用的时间序列数据以及使用高斯过程生成的合成数据上进行了训练。
最新更新
- 🚀 2025年2月14日更新:Chronos-Bolt和原始Chronos模型现已在Amazon SageMaker JumpStart上可用!查看教程笔记本,了解如何用几行代码部署Chronos端点以用于生产。
- 🚀 2024年11月27日更新:我们发布了Chronos-Bolt⚡️模型,与相同大小的原始Chronos模型相比,它的准确性提高了(误差降低5%),速度提高了250倍,内存效率提高了20倍。点击此处查看新模型。
模型详情
有关Chronos模型、训练数据和过程以及实验结果的详细信息,请参阅论文Chronos: Learning the Language of Time Series。
图1:Chronos的高层描述。(左)对输入时间序列进行缩放和量化以获得标记序列。(中)将标记输入到语言模型中,该模型可以是编码器 - 解码器模型或仅解码器模型。使用交叉熵损失对模型进行训练。(右)在推理过程中,我们自回归地从模型中采样标记并将其映射回数值。对多个轨迹进行采样以获得预测分布。
🚀 快速开始
安装
要使用Chronos模型进行推理,请通过运行以下命令在GitHub 配套仓库 中安装该软件包:
pip install git+https://github.com/amazon-science/chronos-forecasting.git
使用示例
基础用法
以下是一个使用Chronos模型进行推理的最小示例:
import matplotlib.pyplot as plt
import numpy as np
import pandas as pd
import torch
from chronos import ChronosPipeline
pipeline = ChronosPipeline.from_pretrained(
"amazon/chronos-t5-base",
device_map="cuda",
torch_dtype=torch.bfloat16,
)
df = pd.read_csv("https://raw.githubusercontent.com/AileenNielsen/TimeSeriesAnalysisWithPython/master/data/AirPassengers.csv")
context = torch.tensor(df["#Passengers"])
prediction_length = 12
forecast = pipeline.predict(context, prediction_length)
forecast_index = range(len(df), len(df) + prediction_length)
low, median, high = np.quantile(forecast[0].numpy(), [0.1, 0.5, 0.9], axis=0)
plt.figure(figsize=(8, 4))
plt.plot(df["#Passengers"], color="royalblue", label="historical data")
plt.plot(forecast_index, median, color="tomato", label="median forecast")
plt.fill_between(forecast_index, low, high, color="tomato", alpha=0.3, label="80% prediction interval")
plt.legend()
plt.grid()
plt.show()
✨ 主要特性
Chronos是基于语言模型架构的预训练时间序列预测模型家族,具有以下特点:
- 创新架构:将时间序列转换为标记序列,使用语言模型进行训练。
- 训练数据丰富:在大量公开时间序列数据和合成数据上训练。
- 性能提升:Chronos-Bolt模型相比原始模型更准确、更快速、更节省内存。
🔧 技术细节
架构
本仓库中的模型基于 T5架构,唯一的区别在于词汇量大小:Chronos-T5模型使用4096个不同的标记,而原始T5模型使用32128个,这导致Chronos-T5模型的参数更少。
📄 许可证
本项目采用Apache-2.0许可证。
📚 引用
如果您发现Chronos模型对您的研究有用,请考虑引用相关 论文:
@article{ansari2024chronos,
author = {Ansari, Abdul Fatir and Stella, Lorenzo and Turkmen, Caner and Zhang, Xiyuan, and Mercado, Pedro and Shen, Huibin and Shchur, Oleksandr and Rangapuram, Syama Syndar and Pineda Arango, Sebastian and Kapoor, Shubham and Zschiegner, Jasper and Maddix, Danielle C. and Mahoney, Michael W. and Torkkola, Kari and Gordon Wilson, Andrew and Bohlke-Schneider, Michael and Wang, Yuyang},
title = {Chronos: Learning the Language of Time Series},
journal = {arXiv preprint arXiv:2403.07815},
year = {2024}
}
🔒 安全
有关更多信息,请参阅 CONTRIBUTING。