Uie Base
Apache-2.0
UIE是一个统一的信息抽取框架,能够处理实体识别、关系抽取、事件检测、情感分析等多种任务,具有跨任务迁移和泛化能力。
知识图谱
Transformers 中文

U
xusenlin
225
25
Chinese Lert Large
Apache-2.0
LERT是一种基于语言学理论驱动的预训练语言模型,旨在通过语言学知识增强模型性能。
大型语言模型
Transformers 中文

C
hfl
197
15
Randeng T5 Char 57M MultiTask Chinese
Apache-2.0
基于字符级T5架构的中文多任务模型,在100+个中文数据集上微调,支持分类、推理和生成任务。
大型语言模型
Transformers 中文

R
IDEA-CCNL
35
8
Chinese Electra Large Generator
Apache-2.0
中文ELECTRA是由哈工大-讯飞联合实验室基于谷歌ELECTRA模型开发的中文预训练模型,具有参数量小但性能优越的特点。
大型语言模型
Transformers 中文

C
hfl
14
0
Autonlp NLPIsFun 251844
这是一个基于AutoNLP训练的二元分类模型,用于处理自然语言处理任务。
文本分类
Transformers 英语

A
m3tafl0ps
16
0
Autonlp Shipping Status 2 27366103
这是一个基于AutoNLP训练的二元分类模型,专门用于物流状态分类任务。
文本分类
Transformers 其他

A
jwuthri
15
0
Roberta Base Wechsel Chinese
MIT
通过WECHSEL方法训练的RoBERTa中文模型,实现从英文到中文的高效跨语言迁移
大型语言模型
Transformers 中文

R
benjamin
16
2
Tinybert L 4 H 312 V2
TinyBERT是华为诺亚方舟实验室推出的轻量级BERT模型,通过知识蒸馏技术压缩模型规模,同时保持较高的性能。
大型语言模型
T
nreimers
5,166
1
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98