Microllama
Apache-2.0
MicroLlama是一個由個人開發者keeeeenw在500美元預算內預訓練的3億參數Llama模型,專注於英語文本生成任務。
大型語言模型
Transformers 英語

M
keeeeenw
2,955
46
Tinyllama V1.1 Chinese
Apache-2.0
TinyLlama是一個11億參數的小型語言模型,採用與Llama 2相同的架構和分詞器,適用於資源有限的應用場景。
大型語言模型
Transformers 英語

T
TinyLlama
447
9
Tinyllama V1.1 Math Code
Apache-2.0
TinyLlama是一個11億參數的緊湊型語言模型,採用與Llama 2相同的架構和分詞器,適用於計算和內存資源有限的應用場景。
大型語言模型
Transformers 英語

T
TinyLlama
3,436
11
Tinyllama V1.1
Apache-2.0
TinyLlama是一個11億參數的小型語言模型,採用與Llama 2相同的架構和分詞器,適用於資源受限的應用場景。
大型語言模型
Transformers 英語

T
TinyLlama
42.11k
92
Phalanx 512x460M MoE
Apache-2.0
LiteLlama-460M-1T 是一個輕量級的混合專家模型,包含512位專家,適用於高效推理和文本生成任務。
大型語言模型
Transformers 英語

P
Kquant03
28
2
Tinyllama 1.1B Medical
基於TinyLlama-1.1B-Chat-v1.0微調的醫療領域問答模型,針對醫療文本和問答場景優化
大型語言模型
T
therealcyberlord
83
2
Tinyllama 1.1B Intermediate Step 1431k 3T
Apache-2.0
TinyLlama是一個1.1B參數的Llama模型,預訓練使用了3萬億標記,旨在提供緊湊高效的文本生成能力。
大型語言模型
Transformers 英語

T
TinyLlama
25.04k
173
Tinyllama 1.1B Intermediate Step 1195k Token 2.5T
Apache-2.0
TinyLlama是一個1.1B參數的小型Llama模型,在3萬億token上預訓練,設計用於資源有限的環境。
大型語言模型
Transformers 英語

T
TinyLlama
419
52
Tinyllama 1.1B Chat V0.6
Apache-2.0
小羊駝是一個11億參數的Llama模型,通過3萬億token預訓練而成,適合計算和內存受限的場景。
大型語言模型 英語
T
TinyLlama
11.60k
98
Tinyllama 1.1B Step 50K 105b
Apache-2.0
TinyLlama是一個1.1B參數的Llama模型,計劃在3萬億token上進行預訓練,優化後可在16塊A100-40G GPU上90天內完成訓練。
大型語言模型
Transformers 英語

T
TinyLlama
14.41k
133
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98