Tavbert Tr
针对土耳其语的类BERT掩码语言模型,基于字符级别运行,采用类似SpanBERT的字符跨度掩码方法进行预训练。
大型语言模型
Transformers 其他

T
tau
15
1
Tavbert He
一个基于字符操作的希伯来语BERT风格掩码语言模型,通过掩码字符片段进行预训练,类似于SpanBERT。
大型语言模型
Transformers 其他

T
tau
116
1
Gujarati XLM R Base
该模型基于XLM-RoBERTa的基础变体,使用古吉拉特语和OSCAR单语数据集进行微调,适用于古吉拉特语的自然语言处理任务。
大型语言模型
Transformers 其他

G
ashwani-tanwar
22
0
Mongolian Gpt2
这是一个基于GPT2架构的蒙古语文本生成模型,旨在生成通顺的蒙古语文本。
大型语言模型 其他
M
flax-community
75
3
Robit Roberta Base It
RobIt 是一个基于RoBERTa架构的意大利语模型,使用Flax框架在OSCAR数据集的意大利语部分上从头训练。
大型语言模型
R
flax-community
14
1
Sinhalaberto
这是一个基于OSCAR僧伽罗语去重数据集训练的稍小模型,为低资源僧伽罗语提供基础支持。
大型语言模型 其他
S
keshan
34
1
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98