2025年最高の 52 個の気候モデルツール

Chronos T5 Small
Apache-2.0
Chronosは言語モデルアーキテクチャに基づく事前学習済み時系列予測モデルファミリーで、量子化とスケーリングにより時系列をトークン系列に変換して訓練され、確率的予測タスクに適しています。
気候モデル Transformers
C
amazon
22.8M
66
Chronos Bolt Small
Apache-2.0
Chronos-BoltはT5アーキテクチャに基づく事前学習済み時系列基盤モデルのシリーズで、革新的なチャンクエンコーディングと直接多段階予測により効率的な時系列予測を実現
気候モデル Safetensors
C
autogluon
6.2M
13
Chronos Bolt Base
Apache-2.0
Chronos-Boltは一連の事前学習済み時系列予測モデルで、ゼロショット予測をサポートし、精度が高く推論速度も速いです。
気候モデル
C
autogluon
4.7M
22
Chronos Bolt Base
Apache-2.0
Chronos-Boltはゼロショット予測をサポートする事前学習済み時系列予測モデルのシリーズで、T5エンコーダ-デコーダアーキテクチャに基づき、約1000億の時系列観測点を含むデータで学習されています。
気候モデル
C
amazon
1.5M
42
Chronos T5 Base
Apache-2.0
Chronosは言語モデルアーキテクチャに基づく事前学習済み時系列予測モデルファミリーで、時系列をトークン系列に変換して訓練し、確率的予測を実現します。
気候モデル Transformers
C
amazon
1.4M
30
Granite Timeseries Ttm R1
Apache-2.0
TinyTimeMixers(TTMs)はIBM Researchがオープンソース化した多変量時系列予測のコンパクトな事前学習モデルで、パラメータ数は100万未満であり、ゼロショットおよび少数ショット予測タスクで優れた性能を発揮します。
気候モデル
G
ibm-granite
1.2M
291
Chronos T5 Tiny
Apache-2.0
Chronosは言語モデルアーキテクチャに基づく事前学習済み時系列予測モデルファミリーで、量子化とスケーリングにより時系列をトークン系列に変換して学習します。
気候モデル Transformers
C
amazon
573.84k
106
Chronos Bolt Tiny
Apache-2.0
Chronos-Boltはゼロショット予測をサポートする事前学習済み時系列予測モデルのシリーズで、T5エンコーダー・デコーダーアーキテクチャに基づき、約1000億の時系列観測値を含むデータで訓練されています。
気候モデル
C
amazon
392.39k
19
Moirai Moe 1.0 R Base
これは事前学習された時系列予測モデルで、時系列データの分析と予測タスクに特化しています。
気候モデル Safetensors
M
Salesforce
374.41k
9
Chronos Bolt Mini
Apache-2.0
Chronos-Boltは、T5エンコーダー-デコーダーアーキテクチャに基づき、約1000億の時系列観測データでトレーニングされた、ゼロショット予測が可能な事前学習済み時系列予測モデルのシリーズです。
気候モデル Safetensors
C
autogluon
360.42k
7
Chronos Bolt Small
Apache-2.0
Chronos-Boltは一連の事前学習済み時系列予測モデルで、ゼロショット予測をサポートし、T5エンコーダー-デコーダーアーキテクチャに基づいており、約1000億の時系列観測点を含むデータで訓練されています。
気候モデル Safetensors
C
amazon
340.81k
10
Chronos Bolt Mini
Apache-2.0
Chronos-Boltはゼロショット予測をサポートする事前訓練済み時系列予測モデルのシリーズで、T5エンコーダー-デコーダーアーキテクチャに基づき、約1000億の時系列観測点を含むデータで訓練されています。
気候モデル
C
amazon
330.76k
5
Chronos T5 Tiny
Apache-2.0
Chronosは言語モデルアーキテクチャに基づく事前学習済み時系列予測モデルファミリーで、量子化とスケーリングにより時系列をトークン系列に変換して学習します。
気候モデル Transformers
C
autogluon
318.45k
12
Granite Timeseries Ttm R2
Apache-2.0
TinyTimeMixers(TTMs)はIBM Researchがオープンソース化した多変量時系列予測用コンパクト事前学習モデルで、パラメータ数は100万から始まり、時系列予測分野で初めて『マイクロ』事前学習モデルの概念を提唱しました。
気候モデル Safetensors
G
ibm-granite
217.99k
89
Chronos T5 Large
Apache-2.0
Chronosは言語モデルアーキテクチャに基づく事前学習済み時系列予測モデルファミリーで、量子化とスケーリングにより時系列をトークン系列に変換して訓練され、確率予測をサポートします。
気候モデル Transformers
C
amazon
156.60k
139
Moirai Moe 1.0 R Small
PyTorchベースの時系列予測事前学習モデルで、様々な時系列データ分析タスクに適用可能
気候モデル
M
Salesforce
130.92k
8
Moirai 1.0 R Small
Moiraiはマスクエンコーダーに基づく汎用時系列予測Transformerで、LOTSAデータセットで事前学習された大規模時系列モデルです。
気候モデル Transformers
M
Salesforce
116.77k
28
Chronos T5 Base
Apache-2.0
Chronosは言語モデルアーキテクチャに基づく事前学習済み時系列予測モデルファミリーで、量子化とスケーリングにより時系列をトークン系列に変換して学習します。
気候モデル Transformers
C
autogluon
82.42k
5
Chronos Bolt Tiny
Apache-2.0
Chronos-Boltはゼロショット予測をサポートする事前学習済み時系列予測モデルのシリーズで、T5エンコーダー・デコーダーアーキテクチャに基づき、約1000億の時系列観測点を含むデータで学習されています。
気候モデル Safetensors
C
autogluon
68.20k
11
Chronos T5 Mini
Apache-2.0
Chronos-T5は言語モデルアーキテクチャに基づく事前学習済み時系列予測モデルで、時系列をトークン系列に変換し、クロスエントロピー損失を用いて言語モデルを訓練することで確率的予測を実現します。
気候モデル Transformers
C
amazon
61.15k
16
Chronos T5 Large
Apache-2.0
Chronosは言語モデルアーキテクチャに基づく事前学習済み時系列予測モデルファミリーで、時系列をトークン系列に変換して訓練され、確率的予測をサポートします。
気候モデル Transformers
C
autogluon
59.18k
6
Chronos T5 Small
Apache-2.0
Chronos-T5は言語モデルアーキテクチャに基づく事前学習済み時系列予測モデルで、量子化とスケーリングにより時系列をトークン系列に変換して学習し、様々な時系列予測タスクに適用可能です。
気候モデル Transformers
C
autogluon
54.04k
5
Moirai 1.0 R Base
Moiraiはマスクエンコーダを基盤とした汎用時系列予測Transformerで、LOTSAデータセットで事前学習された大規模時系列モデルです。
気候モデル Transformers
M
Salesforce
52.70k
29
Moirai 1.0 R Large
Moiraiはマスクエンコーダーに基づく汎用時系列予測Transformerで、LOTSAデータセットで事前学習された大型時系列モデル
気候モデル Transformers
M
Salesforce
35.58k
77
Moirai 1.1 R Base
Moirai-1.0-Rモデルの全面アップグレード版で、Monashナレッジベースの40データセットにおいて顕著な進歩を達成、特に低頻度データシナリオに最適化されています。
気候モデル Transformers
M
Salesforce
26.77k
7
Chronos T5 Mini
Apache-2.0
Chronosは言語モデルアーキテクチャに基づく事前学習済み時系列予測モデルファミリーで、時系列データをトークン系列に変換して学習し、確率的予測をサポートします。
気候モデル Transformers
C
autogluon
23.57k
5
Moirai 1.1 R Small
Moirai-1.1-RはSalesforceがリリースした時系列予測の基盤モデルで、低頻度データ(年次データや四半期データなど)において優れた性能を発揮し、前世代モデルと比べて約20%の性能向上を実現しました。
気候モデル Transformers
M
Salesforce
14.61k
6
Moirai 1.1 R Large
Moirai-1.1-RはSalesforceが開発した時系列予測の基盤モデルで、低頻度データの予測性能が大幅に向上しています。
気候モデル Transformers
M
Salesforce
14.11k
26
Timemoe 200M
Apache-2.0
TimeMoE-200Mは、エキスパート混合(Mixture of Experts, MoE)アーキテクチャに基づく十億レベルの時系列基礎モデルで、時系列予測タスクに特化しています。
気候モデル
T
Maple728
14.01k
7
Chronos Bolt Base Fine Tuned V2
amazon/chronos-bolt-baseアーキテクチャを基にファインチューニングされた時系列予測モデルで、間欠的需要予測タスクに特化して最適化されています
気候モデル Transformers
C
nieche
6,523
0
Timer Base 84m
Apache-2.0
Timerは8400万パラメータの軽量生成型Transformerモデルで、時系列予測タスク向けに設計されており、ゼロショット点予測をサポートします。
気候モデル
T
thuml
6,491
35
Chronos Bolt Base Fine Tuned V1
1億9000万時系列データポイントでファインチューニングされた間欠的需要予測モデル
気候モデル Transformers
C
nieche
5,944
0
Chronos Bolt Base Fine Tuned V3
独自データセットでファインチューニングされた時系列予測モデルで、特に間欠的需要予測シナリオに適しています。
気候モデル Transformers
C
nieche
5,873
0
Test Patchtst
Apache-2.0
PatchTSTは時系列予測タスクに特化した事前学習済みの時系列基盤モデルです。
気候モデル
T
ibm-research
5,593
0
Test Patchtsmixer
Apache-2.0
PatchTSMixerはIBM Graniteプロジェクトの時系列予測基盤モデルで、革新的なPatchハイブリッドアーキテクチャを採用し、様々な時系列予測タスクに適用可能です。
気候モデル
T
ibm-research
5,300
0
Time Series Transformer Tourism Monthly
MIT
これはTransformerアーキテクチャに基づく時系列予測モデルで、tourism-monthlyデータセットで30エポックのトレーニングを行いました。
気候モデル Transformers
T
huggingface
4,595
21
Timesfm 1.0 200m
Apache-2.0
Google Researchが開発した事前学習済み時系列基礎モデルで、単変量時系列予測に特化
気候モデル
T
google
2,797
738
Yinglong 300m
応龍は時系列予測に使用される基礎モデルで、780億の時点で事前学習され、時系列予測タスクに強力なサポートを提供します。
気候モデル Safetensors
Y
qcw2333
1,996
1
Granite Timeseries Patchtsmixer
Apache-2.0
軽量で高速な多変量時系列予測モデル、ETTh1データセットで0.37のテストMSEを達成
気候モデル Transformers
G
ibm-granite
1,905
17
Granite Timeseries Patchtst
Apache-2.0
PatchTSTは長期時系列予測のために設計されたTransformerベースの時系列予測モデルで、サブシーケンスブロックとチャネル独立性技術を用いて予測精度を向上させています。
気候モデル Transformers
G
ibm-granite
1,505
11
Test Ttm V1
Apache-2.0
TinyTimeMixer (TTM) は、効率的な時系列分析タスクに特化した軽量な時系列予測基盤モデルです。
気候モデル
T
ibm-research
603
0
Chronos Bolt Small Fine Tuned V2
amazon/chronos-bolt-smallを基に精密調整した時系列予測モデル、2500万行の専有データで訓練
気候モデル Transformers
C
nieche
495
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase