🚀 Toto-Open-Base-1.0
Toto (Time Series Optimized Transformer for Observability) は、多変量時系列予測に特化した時系列基礎モデルです。特にオブザーバビリティ指標に重点を置いて設計されており、オブザーバビリティシナリオで一般的に遭遇する高次元、疎、非定常データを効率的に処理することができます。
Toto-Open-Base-1.0アーキテクチャの概要。
🚀 クイックスタート
📦 インストール
git clone https://github.com/DataDog/toto.git
cd toto
pip install -r requirements.txt
💻 使用例
基本的な使用法
Totoを使用して予測をすばやく生成する方法は次のとおりです。
import torch
from data.util.dataset import MaskedTimeseries
from inference.forecaster import TotoForecaster
from model.toto import Toto
DEVICE = 'cuda'
toto = Toto.from_pretrained('Datadog/Toto-Open-Base-1.0').to(DEVICE)
toto.compile()
forecaster = TotoForecaster(toto.model)
input_series = torch.randn(7, 4096).to(DEVICE)
timestamp_seconds = torch.zeros(7, 4096).to(DEVICE)
time_interval_seconds = torch.full((7,), 60*15).to(DEVICE)
inputs = MaskedTimeseries(
series=input_series,
padding_mask=torch.full_like(input_series, True, dtype=torch.bool),
id_mask=torch.zeros_like(input_series),
timestamp_seconds=timestamp_seconds,
time_interval_seconds=time_interval_seconds,
)
forecast = forecaster.forecast(
inputs,
prediction_length=336,
num_samples=256,
samples_per_batch=256,
)
mean_prediction = forecast.mean
prediction_samples = forecast.samples
lower_quantile = forecast.quantile(0.1)
upper_quantile = forecast.quantile(0.9)
詳細な推論手順については、推論チュートリアルノートブック を参照してください。
性能に関する推奨事項
⚠️ 重要提示
最適な速度とメモリ使用量の削減のために、xFormers と flash-attention をインストールし、use_memory_efficient
を True
に設定してください。
📦 利用可能なチェックポイント
✨ 主な機能
- ゼロショット予測
- 多変量対応
- デコーダーのみのTransformerアーキテクチャ
- 確率的予測 (Student-T混合モデル)
- 因果的パッチごとのインスタンス正規化
- 大規模データでの広範な事前学習
- 高次元時系列対応
- オブザーバビリティ指標に特化
- GiftEval と BOOM での最先端の性能
📚 ドキュメント
訓練データの概要
追加リソース
引用
もしあなたが研究やアプリケーションでTotoを使用する場合は、次のように引用してください。
@misc{toto2025,
title={This Time is Different: An Observability Perspective on Time Series Foundation Models},
author={TODO},
year={2025},
eprint={arXiv:TODO},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
📄 ライセンス
このプロジェクトは、Apache-2.0ライセンスの下で公開されています。