# 文本理解

The Teacher V 2
这是一个用于零样本分类任务的transformers模型,可在无需大量标注数据的情况下对文本进行分类。
文本分类 Transformers
T
shiviklabs
172
0
Persian Question Generator
Apache-2.0
这是一个基于mT5模型微调的波斯语问题生成模型,能够从波斯语文本中生成相关问题。
问答系统 Transformers 其他
P
myrkur
57
1
Wasmai 7b V1
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型 Transformers
W
wasmdashai
133
1
Moritzlaurer Roberta Base Zeroshot V2.0 C Onnx
Apache-2.0
这是MoritzLaurer/roberta-base-zeroshot-v2.0-c模型的ONNX格式转换版本,适用于零样本分类任务。
文本分类 Transformers
M
protectai
14.94k
0
Norbert3 Xs
Apache-2.0
NorBERT 3 xs 是一个针对挪威语优化的BERT模型,属于新一代NorBERT语言模型系列中的最小版本,参数量为15M。
大型语言模型 Transformers 其他
N
ltg
228
4
Spanbert Qa
基于SpanBERT/spanbert-base-cased微调的问答模型,适用于阅读理解任务
问答系统 Transformers
S
vaibhav9
24
0
Rbt4 H312
Apache-2.0
MiniRBT是基于知识蒸馏技术开发的中文小型预训练模型,采用全词掩码技术优化训练效率。
大型语言模型 Transformers 中文
R
hfl
34
5
Minirbt H288
Apache-2.0
MiniRBT是基于知识蒸馏技术开发的中文小型预训练模型,采用全词掩码技术优化训练效率。
大型语言模型 Transformers 中文
M
hfl
405
8
Minirbt H256
Apache-2.0
MiniRBT是一个基于知识蒸馏技术的中文小型预训练模型,结合了全词掩码技术,适用于多种中文自然语言处理任务。
大型语言模型 Transformers 中文
M
hfl
225
7
Bert Ascii Medium
一个中等规模的BERT语言模型,通过预测被遮蔽标记中字符的ASCII码值之和作为预训练目标进行预训练。
大型语言模型 Transformers
B
aajrami
24
0
Rubert Tiny Squad
MIT
基于cointegrated/rubert-tiny2微调的俄语问答模型,适用于SQuAD格式的问答任务
问答系统 Transformers
R
Den4ikAI
32
0
Distilbert Base Uncased Combined Squad Adversarial
Apache-2.0
该模型是基于distilbert-base-uncased在SQuAD对抗数据集上微调的版本,适用于问答任务。
问答系统 Transformers
D
stevemobs
15
0
Opt 6.7b
其他
OPT是由Meta AI开发的开放预训练Transformer语言模型,包含6.7B参数,旨在促进大规模语言模型研究。
大型语言模型 英语
O
facebook
72.30k
116
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于蒸馏BERT基础版在问答数据集上微调的模型,适用于问答任务
问答系统 Transformers
D
jhoonk
15
0
Simpledataset
Apache-2.0
基于distilroberta-base微调的模型,具体用途和训练数据未明确说明
大型语言模型 Transformers
S
DioLiu
174
0
Erlangshen Roberta 110M Sentiment
Apache-2.0
基于中文RoBERTa-wwm-ext-base模型,在多个情感分析数据集上微调后的版本
文本分类 Transformers 中文
E
IDEA-CCNL
16.19k
70
Ambert
MIT
基于Roberta架构训练的阿姆哈拉语语言模型,适用于多种自然语言处理任务。
大型语言模型 Transformers
A
surafelkindu
57
1
Tapt Nbme Deberta V3 Base
MIT
基于microsoft/deberta-v3-base微调的模型,在评估集上准确率为75.76%
大型语言模型 Transformers
T
ZZ99
15
0
Distilroberta Base 1
Apache-2.0
基于distilroberta-base模型微调的版本,适用于文本相关任务
大型语言模型 Transformers
D
uhlenbeckmew
56
0
Bert Base Uncased Wiki Scouting
Apache-2.0
基于bert-base-uncased-wiki微调的模型,具体任务未明确说明
大型语言模型 Transformers
B
amanm27
38
0
Chinese Xlnet Base
Apache-2.0
面向中文的XLNet预训练模型,旨在丰富中文自然语言处理资源,提供多元化的中文预训练模型选择。
大型语言模型 Transformers 中文
C
hfl
1,149
31
Ltrc Roberta
这是一个基于880万泰卢固语句子训练的RoBERTa模型,专门针对泰卢固语的自然语言处理任务进行了优化。
大型语言模型 Transformers
L
ltrctelugu
52
0
Mt5 Small Jaquad Qg Ae
基于MT5-small微调的日语问题生成与答案抽取模型,支持从给定文本中生成问题或抽取答案。
问答系统 Transformers 日语
M
lmqg
143
1
Albert Base V2 Finetuned Squad
Apache-2.0
基于albert-base-v2模型在问答数据集上微调的版本,适用于问答任务
问答系统 Transformers
A
knlu1016
16
0
Roberta Base
基于韩语预训练的RoBERTa模型,适用于多种韩语自然语言处理任务。
大型语言模型 Transformers 韩语
R
klue
1.2M
33
T5 End2end Question Generation
Apache-2.0
基于T5-base微调的端到端问题生成模型,可根据给定上下文自动生成相关问题。
问答系统 Transformers
T
ThomasSimonini
386
15
Bert Base Uncased Finetuned QnA V1
Apache-2.0
基于bert-base-uncased模型微调的问答系统版本,适用于英文问答任务
问答系统 Transformers
B
mujerry
23
0
T5 Small Squad Qg Ae
基于T5-small微调的英文问题生成与答案抽取模型,适用于从文本中生成问题或抽取答案。
问答系统 Transformers 英语
T
lmqg
685
0
Mt5 Base Chinese Qg
这是一个基于MT5架构的中文问题生成模型,能够从给定的中文文本中自动生成相关问题。
问答系统 Transformers
M
algolet
103
17
Distilbert Base Uncased Squad2 With Ner With Neg With Repeat
基于distilbert-base-uncased-squad2在conll2003数据集上微调的问答与命名实体识别模型
问答系统 Transformers
D
andi611
20
0
Mt5 Small Jaquad Qg
这是一个基于google/mt5-small微调的日语问题生成模型,专门用于从给定文本中生成相关问题。
问答系统 Transformers 日语
M
lmqg
209
2
Bert Base Uncased Finetuned Docvqa
Apache-2.0
基于BERT基础模型在文档视觉问答(DocVQA)任务上微调的模型
问答系统 Transformers
B
tiennvcs
60
1
Chinese Bert Wwm
Apache-2.0
采用全词掩码策略的中文预训练BERT模型,旨在加速中文自然语言处理研究。
大型语言模型 中文
C
hfl
28.52k
79
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98
Distilkobert
Apache-2.0
DistilKoBERT是韩语BERT模型的轻量级版本,通过知识蒸馏技术压缩原始模型,保留了大部分性能同时减少计算资源需求。
大型语言模型 Transformers 韩语
D
monologg
17.02k
5
Qa Roberta Base Chinese Extractive
这是一个使用中文语料微调的RoBERTa-Base问答模型,适用于抽取式问答任务。
问答系统 Transformers 中文
Q
liam168
34
9
Chinese Pert Base
PERT是一个基于BERT的中文预训练模型,专注于提升中文文本处理能力。
大型语言模型 Transformers 中文
C
hfl
131
13
Robbertje 1 Gb Shuffled
MIT
RobBERTje是基于RobBERT的蒸馏荷兰语模型集合中的乱序版本,参数量74M,使用打乱的OSCAR语料训练
大型语言模型 Transformers 其他
R
DTAI-KULeuven
508
0
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型 英语
D
distilbert
11.1M
669
Robbertje 1 Gb Bort
MIT
RobBERTje是基于RobBERT的一系列蒸馏荷兰语BERT模型,提供多种不同大小和训练设置的模型选择。
大型语言模型 Transformers 其他
R
DTAI-KULeuven
63
0
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase