# RoBERTa架构

Medical Ner Roberta
基于RoBERTa架构的医疗领域命名实体识别模型,用于从医疗文本中识别特定实体
序列标注 Transformers
M
nairaxo
58
1
Parrots Chinese Roberta Wwm Ext Large
Apache-2.0
基于RoBERTa架构的中文预训练模型,支持文本转语音任务
大型语言模型 Transformers 中文
P
shibing624
76
2
Polish Reranker Base Mse
Apache-2.0
这是一个基于均方误差(MSE)蒸馏方法训练的波兰语文本排序模型,训练数据集包含140万条查询和1000万份文档的文本对。
文本嵌入 Transformers 其他
P
sdadas
16
0
Simcse Roberta Large Zh
MIT
SimCSE(sup) 是一个用于中文句子相似度任务的模型,可将句子编码为嵌入向量并计算句子间的余弦相似度。
文本嵌入 Transformers 中文
S
hellonlp
179
1
Klue Roberta Base Klue Sts
这是一个基于sentence-transformers的模型,能够将句子和段落映射到768维的密集向量空间,适用于聚类和语义搜索等任务。
文本嵌入
K
shangrilar
165
0
AIGC Detector Env2
Apache-2.0
基于多尺度正无标记检测方法的AI生成文本检测器,用于识别AI生成的文本内容。
文本分类 Transformers
A
yuchuantian
94
5
Ag Nli Bert Mpnet Base Uncased Sentence Similarity V1
这是一个基于sentence-transformers的模型,能够将句子和段落映射到768维的密集向量空间,适用于聚类或语义搜索等任务。
文本嵌入 Transformers 其他
A
abbasgolestani
18
0
Simcse Indoroberta Base
这是一个基于IndoRoberta的句子转换器模型,能够将印尼语句子和段落映射到768维向量空间,适用于句子相似度计算和语义搜索任务。
文本嵌入 Transformers 其他
S
LazarusNLP
15
0
Legal Dutch Roberta Base
基于RoBERTa架构的荷兰语法律领域基础模型
大型语言模型 Transformers
L
joelniklaus
25
2
Legal Xlm Roberta Base
CC
基于法律数据预训练的多语言XLM-RoBERTa模型,支持24种欧洲语言的法律文本处理
大型语言模型 Transformers 支持多种语言
L
joelniklaus
387
3
Drbert 7GB
Apache-2.0
DrBERT是基于法语医疗文本开源语料库NACHOS训练的法语RoBERTa模型,专注于生物医学与临床领域
大型语言模型 Transformers 法语
D
Dr-BERT
4,781
13
Congen Simcse Model Roberta Base Thai
Apache-2.0
这是一个基于RoBERTa架构的泰语句子相似度模型,能够将句子映射到768维的向量空间,适用于语义搜索等任务。
文本嵌入 Transformers
C
kornwtp
86
1
Danskbert
丹麦BERT是一个针对丹麦语优化的语言模型,在丹麦语ScandEval基准测试中表现优异。
大型语言模型 Transformers 其他
D
vesteinn
151
6
Maltberta
MaltBERTa是基于马耳他语文本大规模预训练的语言模型,采用RoBERTa架构,由MaCoCu项目开发。
大型语言模型 其他
M
MaCoCu
26
0
Robertuito Pos
基于RoBERTuito的西班牙语/英语词性标注模型,专为推特文本优化
序列标注 Transformers 西班牙语
R
pysentimiento
188
0
Xlm Roberta Base Finetuned Panx All
MIT
基于xlm-roberta-base模型在PANX数据集上微调的多语言命名实体识别模型
大型语言模型 Transformers
X
okite97
15
0
Roberta Base Ca V2 Cased Ner
Apache-2.0
基于RoBERTa架构的加泰罗尼亚语命名实体识别模型,在AnCora-Ca-NER数据集上微调
序列标注 Transformers 其他
R
projecte-aina
986
0
Roberta Base Finetuned Squad
MIT
基于RoBERTa-base模型在SQuAD 2.0数据集上微调的问答模型,用于回答基于给定文本的问题
问答系统 Transformers
R
janeel
16
0
Xlm Roberta Base Finetuned Panx All
MIT
基于xlm-roberta-base在多语言数据集上微调的命名实体识别模型
大型语言模型 Transformers
X
flood
15
0
Kosimcse Roberta Multitask
基于RoBERTa架构优化的韩语语义相似度计算模型,通过多任务学习实现高性能句子嵌入
文本嵌入 Transformers 韩语
K
BM-K
37.37k
23
Roberta Base Coptic Upos
基于RoBERTa的科普特语词性标注和依存句法分析模型
序列标注 Transformers 其他
R
KoichiYasuoka
67
0
Tibetan Roberta Causal Base
MIT
这是一个基于RoBERTa架构的藏文预训练因果语言模型,主要用于藏文文本生成任务。
大型语言模型 Transformers 其他
T
sangjeedondrub
156
5
Legalbert Large 1.7M 1
基于RoBERTa预训练目标,在英语法律和行政文本上预训练的BERT大模型
大型语言模型 Transformers 英语
L
pile-of-law
120
14
Roberta Base Turkish Uncased
MIT
基于土耳其语预训练的RoBERTa基础模型,使用38GB土耳其语语料训练
大型语言模型 Transformers 其他
R
burakaytan
57
16
Bsc Bio Es
Apache-2.0
专为西班牙语生物医学领域设计的预训练语言模型,适用于临床NLP任务
大型语言模型 Transformers 西班牙语
B
PlanTL-GOB-ES
162
5
Roberta Retrained Ru Covid Papers
基于roberta-retrained_ru_covid在未知数据集上微调的俄语模型,可能与COVID-19相关研究论文处理有关
大型语言模型 Transformers
R
Daryaflp
15
0
Icebert Xlmr Ic3
基于RoBERTa-base架构的冰岛语掩码语言模型,通过xlm-roberta-base微调训练而成
大型语言模型 Transformers 其他
I
mideind
24
0
Icebert Ic3
基于RoBERTa-base架构训练的冰岛语掩码语言模型,使用fairseq框架训练
大型语言模型 Transformers 其他
I
mideind
16
0
Tunbert Zied
tunbert_zied 是一个基于突尼斯方言的语言模型,架构类似RoBERTa,训练了超过60万条突尼斯方言短语。
大型语言模型 Transformers
T
ziedsb19
19
2
FERNET News
FERNET-新闻是一个基于捷克语RoBERTa的单语基础模型,通过20.5GB经过彻底清洗的捷克新闻语料库进行预训练。
大型语言模型 Transformers 其他
F
fav-kky
17
0
Bertin Base Gaussian
这是一个基于RoBERTa-base架构、从零开始训练的西班牙语填充掩码模型。
大型语言模型 西班牙语
B
bertin-project
16
0
Robbert V2 Dutch Base
MIT
RobBERT是当前最先进的荷兰语BERT模型,基于RoBERTa架构优化,适用于各类文本分类和标记任务
大型语言模型 其他
R
pdelobelle
7,891
29
Roberta Large
基于韩语预训练的RoBERTa模型,适用于韩语理解任务。
大型语言模型 Transformers 韩语
R
klue
132.29k
50
Vietnamese Sbert
基于sentence-transformers的越南语句子嵌入模型,可将文本映射至768维向量空间,适用于语义搜索和聚类任务。
文本嵌入 Transformers
V
keepitreal
10.54k
48
Roberta Large Squad2
MIT
基于roberta-large架构开发的问答模型,专门针对SQuAD 2.0数据集进行训练
问答系统 英语
R
navteca
21
0
Roberta Base Few Shot K 128 Finetuned Squad Seed 42
MIT
基于RoBERTa-base模型在SQuAD数据集上进行few-shot微调的问答模型
问答系统 Transformers
R
anas-awadalla
19
0
Robbert V2 Dutch Ner
MIT
RobBERT是最先进的荷兰语BERT模型,经过大规模预训练,可通过微调适应各类文本任务。
大型语言模型 其他
R
pdelobelle
76.94k
3
Wangchanberta Base Wiki Newmm
基于泰语维基百科预训练的RoBERTa BASE模型,适用于泰语文本处理任务
大型语言模型 其他
W
airesearch
115
2
Indonesian Roberta Base
MIT
基于RoBERTa架构的印尼语掩码语言模型,在OSCAR语料库上训练,验证准确率62.45%
大型语言模型 其他
I
flax-community
1,013
11
Bertin Base Stepwise
基于RoBERTa架构的西班牙语预训练模型,专注于填充掩码任务
大型语言模型 西班牙语
B
bertin-project
15
0
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase