Chronos Bolt Small
Apache-2.0
Chronos-Bolt是一系列預訓練時間序列預測模型,支持零樣本預測,基於T5編碼器-解碼器架構,訓練數據涵蓋近千億時間序列觀測點。
氣候模型
Safetensors
C
amazon
340.81k
10
Chronos Bolt Tiny
Apache-2.0
Chronos-Bolt是一系列預訓練時間序列預測模型,支持零樣本預測,基於T5編碼器-解碼器架構,訓練數據涵蓋近千億時間序列觀測值。
氣候模型
C
amazon
392.39k
19
Chronos Bolt Small
Apache-2.0
Chronos-Bolt是一系列基於T5架構的預訓練時間序列基礎模型,通過創新分塊編碼和直接多步預測實現高效時序預測
氣候模型
Safetensors
C
autogluon
6.2M
13
Chronos Bolt Mini
Apache-2.0
Chronos-Bolt是一系列可用於零樣本預測的預訓練時間序列預測模型,基於T5編碼器-解碼器架構,在近1000億條時間序列觀測數據上訓練。
氣候模型
Safetensors
C
autogluon
360.42k
7
Chronos Bolt Tiny
Apache-2.0
Chronos-Bolt是一系列預訓練時間序列預測模型,支持零樣本預測,基於T5編碼器-解碼器架構,訓練數據涵蓋近千億時間序列觀測點。
氣候模型
Safetensors
C
autogluon
68.20k
11
Chronos Bolt Base
Apache-2.0
Chronos-Bolt是一系列預訓練的時間序列預測模型,支持零樣本預測,精度高且推理速度快。
氣候模型
C
autogluon
4.7M
22
Test Patchtst
Apache-2.0
PatchTST是一個預訓練的時間序列基礎模型,專注於時間序列預測任務。
氣候模型
T
ibm-research
5,593
0
Britllm 3b V0.1
BritLLM是一個未經加工的預訓練模型,支持多種英國本土語言,適用於多種自然語言處理任務,但需要進一步微調以適應大多數使用場景。
大型語言模型
Transformers 支持多種語言

B
britllm
151
5
Moirai 1.1 R Large
Moirai-1.1-R是Salesforce推出的時間序列預測基礎模型,針對低頻數據預測性能顯著提升。
氣候模型
Transformers

M
Salesforce
14.11k
26
Zamba 7B V1 Phase1
Apache-2.0
Zamba-7B-v1-phase1是狀態空間模型Mamba與Transformer的混合架構,以Mamba為主幹網絡,每6個模塊共享一個Transformer層,通過下一詞預測進行訓練。
大型語言模型
Transformers

Z
Zyphra
22
5
Minerva 1B Base V1.0
Apache-2.0
Minerva-1B-base-v1.0是由Sapienza NLP與FAIR及CINECA合作開發的10億參數意英雙語大語言模型,基於2000億token(各1000億意/英)訓練
大型語言模型
Transformers 支持多種語言

M
sapienzanlp
551
28
Mixtral 8x22B V0.1
Apache-2.0
Mixtral-8x22B是一個預訓練的生成式稀疏混合專家模型,支持多種語言。
大型語言模型
Transformers 支持多種語言

M
mistralai
1,032
220
VBART Small Base
VBART 是首個基於土耳其語語料庫從頭開始大規模預訓練的序列到序列大型語言模型,由 VNGRS 開發。
大型語言模型
Transformers 其他

V
vngrs-ai
92
4
VBART Medium Base
VBART是首個基於土耳其語語料庫從頭開始大規模預訓練的序列到序列大型語言模型,由VNGRS開發。
大型語言模型
Transformers 其他

V
vngrs-ai
61
3
Chronos T5 Mini
Apache-2.0
Chronos-T5是基於語言模型架構的預訓練時間序列預測模型,通過將時間序列轉換為標記序列並利用交叉熵損失訓練語言模型,實現概率預測。
氣候模型
Transformers

C
amazon
61.15k
16
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98