Turkish Deepseek
Apache-2.0
基于DeepSeek架构,在土耳其语文本上训练的语言模型,包含多头潜在注意力(MLA)和专家混合(MoE)技术。
大型语言模型
Transformers 其他

T
alibayram
106
1
Scandi Nli Small
Apache-2.0
基于jonfd/electra-small-nordic微调的斯堪的纳维亚语言NLI模型,支持丹麦语、挪威语和瑞典语
文本分类
Transformers 其他

S
alexandrainst
28
2
Deberta V3 Small Finetuned Mnli
MIT
在GLUE MNLI数据集上微调的DeBERTa v3小规模版本,用于自然语言推理任务,准确率达87.46%
文本分类
Transformers 英语

D
mrm8488
139
3
Legal T5 Small Summ En
基于T5-small的英语法律文本摘要模型,专门用于处理欧盟法律文件。
文本生成
L
SEBIS
148
1
Legal T5 Small Trans Es En Small Finetuned
该模型用于将法律文本从西班牙语翻译成英语,基于T5-small架构进行优化训练。
机器翻译
L
SEBIS
44
0
Legal T5 Small Trans Cs Sv
用于捷克语法律文本到瑞典语翻译的小型T5模型
机器翻译
L
SEBIS
17
0
Sroberta L
Apache-2.0
基于克罗地亚语和塞尔维亚语训练的RoBERTa语言模型,使用6GB数据集训练50万步
大型语言模型
Transformers 其他

S
Andrija
17
0
Distilbert Base Es Multilingual Cased
Apache-2.0
这是从distilbert-base-multilingual-cased中提取的西班牙语子集模型,是BERT基础多语言模型的蒸馏版本,参数规模更小但保留了主要功能。
大型语言模型
Transformers 西班牙语

D
Recognai
76
3
Legal T5 Small Summ It
用于意大利语法律文本摘要的小型T5模型
文本生成
L
SEBIS
190
2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98