PARD Llama 3.2 1B
MIT
PARD是一種高性能的推測解碼方法,能夠以低成本將自迴歸草稿模型轉換為並行草稿模型,顯著加速大語言模型推理。
大型語言模型
Transformers

P
amd
2,219
1
Hyperclovax SEED Text Instruct 0.5B
其他
一款具備指令跟隨能力的韓語優化文本生成模型,輕量級設計適合邊緣設備部署
大型語言模型
Transformers

H
naver-hyperclovax
7,531
60
Jetmoe 8b
Apache-2.0
JetMoE-8B是一款高效開源大語言模型,以不足10萬美元的訓練成本達到LLaMA2-7B性能水平,專為低資源環境設計。
大型語言模型
Transformers

J
jetmoe
1,337
246
Loquace 7B Mistral
Apache-2.0
Loquace是一個會說意大利語、經過指令微調的大語言模型,旨在推動AI和LLM在意大利的民主化。
大型語言模型
Transformers 其他

L
cosimoiaia
17
15
Pixart XL 2 1024 MS
Pixart-α是基於Transformer架構的高效文本生成圖像模型,能以極低訓練成本生成1024像素高質量圖像
圖像生成
P
PixArt-alpha
119.36k
201
Anima33b Merged
其他
首個基於QLoRA的開源33B中文大語言模型,在Guanaco 33B基礎上進行中文能力增強的微調
大型語言模型
Transformers 中文

A
lyogavin
52
30
Pokemon Stable Diffusion
由Lambda Labs微調的穩定擴散模型,專門用於生成口袋妖怪風格的圖像
圖像生成 英語
P
justinpinkney
529
64
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98