Consilience 40b J4iA6BRm
Nous Consilience 40B 是一個400億參數的生成式文本模型,通過去中心化方式從零開始預訓練,支持多種語言,旨在代表人類廣泛的創造性產出。
大型語言模型
Safetensors 支持多種語言
C
PsycheFoundation
46
1
Vesselfm
其他
VesselFM 是一個基礎模型,用於在任意成像領域中實現通用的 3D 血管分割。
圖像分割
V
bwittmann
153
4
MOMENT 1 Small
MIT
MOMENT是一系列通用時間序列分析的基礎模型,支持多種時間序列任務,具備開箱即用的有效性,並可通過微調提升性能。
材料科學
Transformers

M
AutonLab
38.03k
4
Timemoe 200M
Apache-2.0
TimeMoE-200M 是一個基於專家混合(Mixture of Experts, MoE)架構的十億級時間序列基礎模型,專注於時間序列預測任務。
氣候模型
T
Maple728
14.01k
7
Timemoe 50M
Apache-2.0
TimeMoE是一個基於專家混合(MoE)架構的十億級時間序列基礎模型,專注於時間序列預測任務。
材料科學
T
Maple728
22.02k
13
Albertina 100m Portuguese Ptpt Encoder
MIT
Albertina 100M PTPT 是一個面向歐洲葡萄牙語(葡萄牙)的基礎大語言模型,屬於BERT家族的編碼器,基於Transformer神經網絡架構,並在DeBERTa模型基礎上開發。
大型語言模型
Transformers 其他

A
PORTULAN
171
4
Gpt3 Finnish Large
Apache-2.0
圖爾庫大學開發的8.81億參數芬蘭語生成式預訓練Transformer模型,基於BLOOM架構
大型語言模型
Transformers 其他

G
TurkuNLP
627
8
Doyying Bert First Again
這是一個由Keras回調生成的模型,具體信息未完全提供
大型語言模型
Transformers

D
DoyyingFace
16
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98