Toto Open Base 1.0
Apache-2.0
Toto是一個專為多元時間序列預測設計的基礎模型,特別適用於可觀測性指標的高效處理
氣候模型
Transformers

T
Datadog
206
4
Chronos Bolt Mini
Apache-2.0
Chronos-Bolt是一系列預訓練時間序列預測模型,支持零樣本預測,基於T5編碼器-解碼器架構,訓練數據包含近1000億個時間序列觀測點。
氣候模型
C
amazon
330.76k
5
MOMENT 1 Small
MIT
MOMENT是一系列通用時間序列分析的基礎模型,支持多種時間序列任務,具備開箱即用的有效性,並可通過微調提升性能。
材料科學
Transformers

M
AutonLab
38.03k
4
MOMENT 1 Base
MIT
MOMENT是一系列通用時序分析基礎模型,支持多種時序分析任務如預測、分類、異常檢測等,具備開箱即用和可微調的特性。
材料科學
Transformers

M
AutonLab
4,975
3
Granite Timeseries Ttm R2
Apache-2.0
TinyTimeMixers(TTMs)是由IBM Research開源的多變量時間序列預測緊湊型預訓練模型,參數從100萬起,首次提出時間序列預測領域的'微型'預訓練模型概念。
氣候模型
Safetensors
G
ibm-granite
217.99k
89
Chattime 1 7B Chat
Apache-2.0
ChatTime是一個統一處理時間序列與文本的多模態基礎模型,具備零樣本預測能力,支持時間序列與文本的雙模態輸入/輸出。
多模態融合
Transformers

C
ChengsenWang
1,621
2
MOMENT 1 Large
MIT
MOMENT是一系列通用時序分析基礎模型,支持多種時序分析任務,具備開箱即用的有效性,並可通過微調提升性能。
材料科學
Transformers

M
AutonLab
194.93k
70
Granite Timeseries Ttm R1
Apache-2.0
TinyTimeMixers(TTMs)是IBM Research開源的多變量時間序列預測緊湊型預訓練模型,參數不足100萬,在零樣本和少樣本預測任務中表現優異。
氣候模型
G
ibm-granite
1.2M
291
Protst Esm1b
ProtST 框架通過生物醫學文本增強蛋白質序列的預訓練和理解,構建了 ProtDescribe 數據集,設計了三種預訓練任務,支持監督學習和零樣本預測。
蛋白質模型
Transformers

P
mila-intel
173
1
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98