# 低資源需求

Brtgpt 124m Base
BrtGPT-124M-Base是一個基於大量英文語料預訓練的基礎模型,可免費使用,解決了開源模型使用繁瑣和對處理能力要求高的問題。
大型語言模型 Transformers
B
Bertug1911
2,128
1
Bonsai
盆景是一個擁有5億參數的小型三值權重語言模型,採用Llama架構和Mistral分詞器,訓練使用的標記數不到50億。
大型語言模型 Transformers
B
deepgrove
113
8
Whisper Custom Small
Apache-2.0
基於 OpenAI Whisper 架構的小型語音識別模型,專注於英語語音轉文本任務。
語音識別 英語
W
gyrroa
15
1
Linglong 317M
Gpl-3.0
LingLong 是一個輕量級中文預訓練語言模型,基於 GPT-3 架構構建,參數規模為 3.17 億,適合計算資源有限的研究者使用。
大型語言模型 Transformers 支持多種語言
L
AlumiK
27
2
Mythomax L2 13b Q4 K M GGUF
其他
MythoMax L2 13b是一個基於Q4_K_M量化版本的大語言模型,適用於文本生成任務。
大型語言模型 英語
M
Clevyby
1,716
2
Fietje 2
MIT
Fietje 2是基於microsoft/phi-2的荷蘭語優化版本,通過280億荷蘭語token訓練專門提升荷蘭語文本生成能力
大型語言模型 Transformers 其他
F
BramVanroy
230
9
Uform Gen2 Qwen 500m
Apache-2.0
UForm-Gen是一款小型生成式視覺語言模型,主要用於圖像描述生成和視覺問答。
圖像生成文本 Transformers 英語
U
unum-cloud
17.98k
76
Tinymistral 248M GGUF
Apache-2.0
TinyMistral-248M 是一個基於 Mistral 7B 模型預訓練的小型語言模型,參數規模縮減至約2.48億,主要用於下游任務的微調。
大型語言模型 英語
T
afrideva
211
5
Billsum Tiny Summarization
Apache-2.0
基於google/t5-efficient-tiny微調的文本摘要模型,在billsum數據集上訓練
文本生成 Transformers
B
jotamunz
932
1
Tinyllama 1.1B Step 50K 105b
Apache-2.0
TinyLlama是一個1.1B參數的Llama模型,計劃在3萬億token上進行預訓練,優化後可在16塊A100-40G GPU上90天內完成訓練。
大型語言模型 Transformers 英語
T
TinyLlama
14.41k
133
Tinystories 1M ONNX
TinyStories-1M-ONNX 是一個基於 ONNX 格式的小型語言模型,適用於文本生成任務。
大型語言模型 Transformers 英語
T
mkly
63
2
Rubert Tiny Squad
MIT
基於cointegrated/rubert-tiny2微調的俄語問答模型,適用於SQuAD格式的問答任務
問答系統 Transformers
R
Den4ikAI
32
0
Tmp Trainer
該模型是在未知數據集上從頭開始訓練的,具體信息和用途尚不明確。
大型語言模型 Transformers
T
Mahmoud1816Yasser
20
0
Distilroberta Base Model Transcript
Apache-2.0
基於distilroberta-base模型微調的文本處理模型,適用於通用NLP任務
大型語言模型 Transformers
D
mahaamami
14
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT-base-uncased模型在NER任務上微調的輕量級模型
序列標註 Transformers
D
akshaychaudhary
15
0
Distilbert Base Uncased Finetuned Emotion Test 01
Apache-2.0
基於DistilBERT的輕量級文本情感分類模型,在emotion數據集上微調
文本分類 Transformers
D
lewtun
15
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase