# 小參數量

T5 Small Text Summarization
Apache-2.0
基於T5-small架構在xsum數據集上微調的文本摘要模型,能夠生成簡潔的摘要內容。
文本生成 Transformers
T
bhuvaneswari
27
0
Qwenphi 4 0.5b Draft
Apache-2.0
基於Qwen2.5-0.5B-Instruct構建,移植了microsoft/phi-4的詞表,可作為Phi-4的草稿模型使用。
大型語言模型 Transformers 支持多種語言
Q
rdsm
27
4
Japanese Parler Tts Mini Bate
其他
Parler-TTS Mini v1 是一個基於日語的小型文本轉語音模型,支持高質量的語音合成。
語音合成 Transformers 日語
J
2121-8
184
12
Clip Vit Tiny Random Patch14 336
這是一個用於調試的小型CLIP模型,基於ViT架構,隨機初始化權重。
文本生成圖像 Transformers
C
yujiepan
14.47k
0
Vda Fine Tuned 2
該模型是基於GroNLP/gpt2-small-italian微調的版本,適用於意大利語文本生成任務。
大型語言模型 Transformers
V
calogero-jerik-scozzaro
15
1
Llama Lite 134m
Apache-2.0
134M參數、768維度的Llama精簡版,用於生成句子嵌入向量
文本嵌入 Transformers
L
skeskinen
93
13
Convnextv2 Nano.fcmae
ConvNeXt-V2自監督特徵表示模型,採用全卷積掩碼自編碼器框架(FCMAE)進行預訓練,適用於圖像分類和特徵提取任務。
圖像分類 Transformers
C
timm
265
0
Electra Contrastdata Squad
Apache-2.0
該模型是基於SQuAD數據集對ELECTRA-small判別器進行微調的版本,適用於問答任務。
問答系統 Transformers
E
mlxen
19
0
Mt5 Small Finetuned Amazon En Zh TW
Apache-2.0
該模型是基於google/mt5-small在亞馬遜數據集上微調的文本摘要模型,支持英文到繁體中文的摘要生成任務。
文本生成 Transformers
M
peterhsu
28
0
Roformer Chinese Small
RoFormer是一種基於旋轉位置編碼(RoPE)增強的Transformer模型,適用於中文文本處理任務。
大型語言模型 中文
R
junnyu
599
2
Deit Small Distilled Patch16 224
Apache-2.0
蒸餾版DeiT模型在ImageNet-1k上以224x224分辨率進行了預訓練和微調,使用蒸餾方法從教師CNN中學習
圖像分類 Transformers
D
facebook
2,253
6
Deberta V3 Small Finetuned Cola
MIT
該模型是在GLUE COLA數據集上對DeBERTa-v3-small進行微調的版本,用於語言學可接受性判斷任務。
文本分類 Transformers 英語
D
mrm8488
16
3
Tapas Small Masklm
TAPAS (Table Parser) 是谷歌研究開發的基於表格的預訓練語言模型,專門用於處理表格數據和自然語言查詢。
大型語言模型 Transformers
T
google
14
1
Electra Small Turkish Uncased Discriminator Finetuned Lr 2e 05 Epochs 3
該模型是基於ELECTRA架構的土耳其語小型判別器模型,在土耳其語SQuAD數據集上進行了微調
問答系統 Transformers
E
husnu
20
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase