# 中文预训练

ERNIE 4.5 0.3B PT Bf16
Apache-2.0
ERNIE-4.5-0.3B-PT-bf16 是由百度开发的 ERNIE 系列模型的一个版本,参数规模为 0.3B,使用 bf16 精度进行训练。
大型语言模型 支持多种语言
E
mlx-community
214
1
Chinesebert Base
ChineseBERT是一个融合字形与拼音信息的中文预训练模型,针对中文文本处理进行了优化。
大型语言模型 Transformers 中文
C
iioSnail
118
7
Rbt4 H312
Apache-2.0
MiniRBT是基于知识蒸馏技术开发的中文小型预训练模型,采用全词掩码技术优化训练效率。
大型语言模型 Transformers 中文
R
hfl
34
5
Minirbt H288
Apache-2.0
MiniRBT是基于知识蒸馏技术开发的中文小型预训练模型,采用全词掩码技术优化训练效率。
大型语言模型 Transformers 中文
M
hfl
405
8
Minirbt H256
Apache-2.0
MiniRBT是一个基于知识蒸馏技术的中文小型预训练模型,结合了全词掩码技术,适用于多种中文自然语言处理任务。
大型语言模型 Transformers 中文
M
hfl
225
7
Chinese Lert Small
Apache-2.0
LERT是一款基于语言学理论驱动的预训练语言模型,旨在通过语言学知识提升模型性能。
大型语言模型 Transformers 中文
C
hfl
538
12
Structbert Large Zh
StructBERT是通过将语言结构融入预训练过程扩展BERT的新模型,通过两个辅助任务充分利用词语和句子的顺序结构
大型语言模型 Transformers 中文
S
junnyu
77
8
Chinese Bert Wwm Finetuned Jd
Apache-2.0
该模型是基于hfl/chinese-bert-wwm在未知数据集上微调得到的版本,适用于中文文本处理任务。
大型语言模型 Transformers
C
wangmiaobeng
24
0
Chinesebert Large
ChineseBERT是一个融合字形与拼音信息的中文预训练模型,通过增强字形特征提升中文理解能力
大型语言模型 Transformers 中文
C
junnyu
21
0
T5 Small Chinese Cluecorpussmall
基于UER-py框架预训练的中文T5小型模型,采用统一的文本到文本格式处理各类中文NLP任务
大型语言模型 中文
T
uer
1,336
19
Roberta Base Word Chinese Cluecorpussmall
基于CLUECorpusSmall语料预训练的中文分词版RoBERTa中型模型,采用分词处理提升序列处理效率
大型语言模型 中文
R
uer
184
9
Chinese Electra Small Generator
Apache-2.0
中文ELECTRA是哈工大-讯飞联合实验室基于谷歌ELECTRA架构开发的中文预训练模型,参数量仅为BERT的1/10但性能相近。
大型语言模型 Transformers 中文
C
hfl
16
0
Roberta Tiny Word Chinese Cluecorpussmall
基于CLUECorpusSmall预训练的中文分词版RoBERTa中型模型,采用8层512隐藏层架构,相比字符版模型具有更优性能和更快处理速度
大型语言模型 中文
R
uer
17
3
Chinese Pert Large
PERT是一个基于BERT的中文预训练语言模型,专注于提升中文文本处理能力。
大型语言模型 Transformers 中文
C
hfl
1,968
10
Chinese Roberta L 8 H 256
基于CLUECorpusSmall预训练的中文RoBERTa模型,参数规模为8层512隐藏单元,适用于多种中文NLP任务。
大型语言模型 中文
C
uer
15
1
Chinese Roberta L 6 H 512
由UER-py预训练的中文RoBERTa模型系列中的中型版本,基于CLUECorpusSmall语料训练,适用于多种中文NLP任务。
大型语言模型 中文
C
uer
19
0
Chinese Electra Base Generator
Apache-2.0
中文ELECTRA是由哈工大-讯飞联合实验室(HFL)基于谷歌与斯坦福大学发布的ELECTRA模型开发的中文预训练模型,具有参数量小、性能高的特点。
大型语言模型 Transformers 中文
C
hfl
15
0
Chinese Legal Electra Base Generator
Apache-2.0
中文ELECTRA是基于谷歌ELECTRA模型的中文预训练模型,由哈工大与讯飞联合实验室发布,具有结构紧凑、性能优越的特点。
大型语言模型 Transformers 中文
C
hfl
18
6
Chinese Pert Base
PERT是一个基于BERT的中文预训练模型,专注于提升中文文本处理能力。
大型语言模型 Transformers 中文
C
hfl
131
13
Mengzi T5 Base
Apache-2.0
基于300G中文语料库预训练的轻量级智能预训练模型
大型语言模型 Transformers 中文
M
Langboat
6,073
55
Mengzi Bert Base
Apache-2.0
基于300G中文语料预训练的BERT模型,采用MLM、POS和SOP任务训练
大型语言模型 Transformers 中文
M
Langboat
438
37
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase