BAGEL 7B MoT DF11
採用DFloat11無損壓縮技術的BAGEL-7B-MoT模型,體積縮小32%的同時保持比特級輸出一致
大型語言模型
Safetensors
B
DFloat11
428
8
FLUX.1 Canny Dev DF11
使用DFloat11格式對black-forest-labs/FLUX.1-Canny-dev進行無損壓縮的版本,可降低GPU內存消耗約30%,同時保持與原始模型逐位相同的輸出。
文本生成圖像
F
DFloat11
424
1
Paraformer Large
Apache-2.0
Paraformer 是一種創新的非自迴歸端到端語音識別模型,相比傳統自迴歸模型具有顯著優勢,能夠並行生成整句目標文本,特別適合利用GPU進行並行推理。
語音識別 中文
P
funasr
43
45
X2 Latent Upscaler For Anime
基於潛在擴散的放大模型,可將穩定擴散生成的圖像分辨率提升2倍
圖像增強
X
alfredplpl
33
1
Gpt J 6B
GPT-J 6B是基於GPT-3架構設計的Transformer模型,具有60億參數,支持文本生成任務。
大型語言模型
Transformers

G
flyhero
59
13
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98