# 小参数量优化

Turkish Deepseek
Apache-2.0
基于DeepSeek架构,在土耳其语文本上训练的语言模型,包含多头潜在注意力(MLA)和专家混合(MoE)技术。
大型语言模型 Transformers 其他
T
alibayram
106
1
Scandi Nli Small
Apache-2.0
基于jonfd/electra-small-nordic微调的斯堪的纳维亚语言NLI模型,支持丹麦语、挪威语和瑞典语
文本分类 Transformers 其他
S
alexandrainst
28
2
Deberta V3 Small Finetuned Mnli
MIT
在GLUE MNLI数据集上微调的DeBERTa v3小规模版本,用于自然语言推理任务,准确率达87.46%
文本分类 Transformers 英语
D
mrm8488
139
3
Legal T5 Small Summ En
基于T5-small的英语法律文本摘要模型,专门用于处理欧盟法律文件。
文本生成
L
SEBIS
148
1
Legal T5 Small Trans Es En Small Finetuned
该模型用于将法律文本从西班牙语翻译成英语,基于T5-small架构进行优化训练。
机器翻译
L
SEBIS
44
0
Legal T5 Small Trans Cs Sv
用于捷克语法律文本到瑞典语翻译的小型T5模型
机器翻译
L
SEBIS
17
0
Sroberta L
Apache-2.0
基于克罗地亚语和塞尔维亚语训练的RoBERTa语言模型,使用6GB数据集训练50万步
大型语言模型 Transformers 其他
S
Andrija
17
0
Distilbert Base Es Multilingual Cased
Apache-2.0
这是从distilbert-base-multilingual-cased中提取的西班牙语子集模型,是BERT基础多语言模型的蒸馏版本,参数规模更小但保留了主要功能。
大型语言模型 Transformers 西班牙语
D
Recognai
76
3
Legal T5 Small Summ It
用于意大利语法律文本摘要的小型T5模型
文本生成
L
SEBIS
190
2
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase