# 中文NLP

Uie Base
Apache-2.0
UIE是一个统一的信息抽取框架,能够处理实体识别、关系抽取、事件检测、情感分析等多种任务,具有跨任务迁移和泛化能力。
知识图谱 Transformers 中文
U
xusenlin
225
25
Chinese Lert Large
Apache-2.0
LERT是一种基于语言学理论驱动的预训练语言模型,旨在通过语言学知识增强模型性能。
大型语言模型 Transformers 中文
C
hfl
197
15
Randeng T5 Char 57M MultiTask Chinese
Apache-2.0
基于字符级T5架构的中文多任务模型,在100+个中文数据集上微调,支持分类、推理和生成任务。
大型语言模型 Transformers 中文
R
IDEA-CCNL
35
8
Chinese Electra Large Generator
Apache-2.0
中文ELECTRA是由哈工大-讯飞联合实验室基于谷歌ELECTRA模型开发的中文预训练模型,具有参数量小但性能优越的特点。
大型语言模型 Transformers 中文
C
hfl
14
0
Autonlp NLPIsFun 251844
这是一个基于AutoNLP训练的二元分类模型,用于处理自然语言处理任务。
文本分类 Transformers 英语
A
m3tafl0ps
16
0
Autonlp Shipping Status 2 27366103
这是一个基于AutoNLP训练的二元分类模型,专门用于物流状态分类任务。
文本分类 Transformers 其他
A
jwuthri
15
0
Roberta Base Wechsel Chinese
MIT
通过WECHSEL方法训练的RoBERTa中文模型,实现从英文到中文的高效跨语言迁移
大型语言模型 Transformers 中文
R
benjamin
16
2
Tinybert L 4 H 312 V2
TinyBERT是华为诺亚方舟实验室推出的轻量级BERT模型,通过知识蒸馏技术压缩模型规模,同时保持较高的性能。
大型语言模型
T
nreimers
5,166
1
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase