# 小參數量優化

Turkish Deepseek
Apache-2.0
基於DeepSeek架構,在土耳其語文本上訓練的語言模型,包含多頭潛在注意力(MLA)和專家混合(MoE)技術。
大型語言模型 Transformers 其他
T
alibayram
106
1
Scandi Nli Small
Apache-2.0
基於jonfd/electra-small-nordic微調的斯堪的納維亞語言NLI模型,支持丹麥語、挪威語和瑞典語
文本分類 Transformers 其他
S
alexandrainst
28
2
Deberta V3 Small Finetuned Mnli
MIT
在GLUE MNLI數據集上微調的DeBERTa v3小規模版本,用於自然語言推理任務,準確率達87.46%
文本分類 Transformers 英語
D
mrm8488
139
3
Legal T5 Small Summ It
用於意大利語法律文本摘要的小型T5模型
文本生成
L
SEBIS
190
2
Legal T5 Small Trans Es En Small Finetuned
該模型用於將法律文本從西班牙語翻譯成英語,基於T5-small架構進行優化訓練。
機器翻譯
L
SEBIS
44
0
Legal T5 Small Trans Cs Sv
用於捷克語法律文本到瑞典語翻譯的小型T5模型
機器翻譯
L
SEBIS
17
0
Distilbert Base Es Multilingual Cased
Apache-2.0
這是從distilbert-base-multilingual-cased中提取的西班牙語子集模型,是BERT基礎多語言模型的蒸餾版本,參數規模更小但保留了主要功能。
大型語言模型 Transformers 西班牙語
D
Recognai
76
3
Legal T5 Small Summ En
基於T5-small的英語法律文本摘要模型,專門用於處理歐盟法律文件。
文本生成
L
SEBIS
148
1
Sroberta L
Apache-2.0
基於克羅地亞語和塞爾維亞語訓練的RoBERTa語言模型,使用6GB數據集訓練50萬步
大型語言模型 Transformers 其他
S
Andrija
17
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase