Timemoe 200M
Apache-2.0
TimeMoE-200M 是一個基於專家混合(Mixture of Experts, MoE)架構的十億級時間序列基礎模型,專注於時間序列預測任務。
氣候模型
T
Maple728
14.01k
7
Codegen25 7b Multi P
Apache-2.0
CodeGen2.5是一個用於程序合成的自迴歸語言模型系列,基於CodeGen2改進,在StarCoderData上訓練,以較小規模實現高性能。
大型語言模型
Transformers

C
Salesforce
839
139
Xdoc Base Squad2.0
MIT
XDoc 是一個統一預訓練模型,能夠通過單一模型處理不同格式的文檔。僅需36.7%的參數量,XDoc在下游任務中即可實現相當或更優的性能表現,在實際部署中具有顯著成本效益。
大型語言模型
Transformers

X
microsoft
36
1
T5 Efficient Small Dm768
Apache-2.0
T5-Efficient-SMALL-DM768 是 Google 原始 T5 的一個變體,採用深度窄型架構,優先增加模型深度以提高下游性能。
大型語言模型 英語
T
google
49
1
Chinese Legal Electra Small Generator
Apache-2.0
中文ELECTRA是哈工大-訊飛聯合實驗室基於谷歌ELECTRA模型發佈的中文預訓練模型,體積小且性能優越。
大型語言模型
Transformers 中文

C
hfl
14
4
T5 Efficient Base Nl48
Apache-2.0
T5-Efficient-BASE-NL48 是 Google T5 的變體,採用深度窄型架構,優先增加模型深度以提高下游任務性能。
大型語言模型 英語
T
google
14
1
T5 Efficient Tiny Nl2
Apache-2.0
T5-Efficient-TINY-NL2是Google原版T5的一個變種,採用深度窄型架構,專注於提高下游任務性能。
大型語言模型 英語
T
google
334
0
T5 Efficient Tiny Nl8
Apache-2.0
T5-Efficient-TINY-NL8是Google T5模型的一個高效變體,採用深度窄型架構優化下游任務性能。
大型語言模型 英語
T
google
25
5
T5 Efficient Small Kv32
Apache-2.0
T5-Efficient-SMALL-KV32是Google原版T5的一個變體,採用深度窄型架構,專注於提高下游任務性能。
大型語言模型 英語
T
google
16
0
T5 Efficient Base
Apache-2.0
T5-Efficient-BASE是基於谷歌T5架構的變體,採用深度窄型設計優化下游任務表現,參數量2.229億
大型語言模型 英語
T
google
735
10
T5 Efficient Small Kv256
Apache-2.0
T5-Efficient-SMALL-KV256是谷歌T5的變體,採用深度窄型架構優化下游任務性能,參數量1.17億,需微調使用。
大型語言模型 英語
T
google
16
0
T5 Efficient Small
Apache-2.0
T5-Efficient-SMALL是Google原版T5的一個變體,採用深度窄型架構,在參數數量相近的情況下,下游任務性能優於其他架構。
大型語言模型 英語
T
google
1,032
4
Deberta V3 Xsmall
MIT
DeBERTaV3是微軟提出的改進版DeBERTa模型,通過ELECTRA風格的梯度解耦嵌入共享預訓練方法提升效率,在自然語言理解任務中表現優異。
大型語言模型
Transformers 英語

D
microsoft
87.40k
43
T5 Efficient Mini
Apache-2.0
T5-Efficient-MINI是谷歌原版T5的一個變體,採用深度窄型架構,在參數數量相似的模型架構中表現出更優的下游任務性能。
大型語言模型 英語
T
google
946
6
T5 Efficient Tiny Ff12000
Apache-2.0
T5-Efficient-TINY-FF12000是Google原始T5的一個變體,採用深度窄型架構,在參數數量相近的模型中表現出更優的下游任務性能。
大型語言模型 英語
T
google
16
0
T5 Efficient Small Nl22
Apache-2.0
T5高效小型-NL22是谷歌T5模型的深度窄型變體,專注於通過增加模型深度提升下游任務性能。
大型語言模型 英語
T
google
17
0
T5 Efficient Tiny Nl32
Apache-2.0
T5-Efficient-TINY-NL32是Google原版T5的一個變體,採用深度窄型架構,優先增加模型深度以優化下游任務性能。
大型語言模型 英語
T
google
209
4
T5 Efficient Tiny
Apache-2.0
T5-Efficient-TINY是谷歌T5模型的深度窄型變體,專注於通過增加模型深度而非寬度來提升下游任務性能。
大型語言模型 英語
T
google
8,337
26
T5 Efficient Large Dm2000
Apache-2.0
T5高效大型-DM2000是谷歌T5模型的一個變體,採用深度窄型架構,優先增加模型深度以提高下游任務性能。
大型語言模型 英語
T
google
16
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98