# 輕量級RoBERTa

Distilroberta Base Finetuned Wikitext2
Apache-2.0
該模型是基於distilroberta-base在wikitext2數據集上微調的版本,主要用於文本生成任務。
大型語言模型 Transformers
D
lamyae
79
0
Distilroberta Base SmithsModel2
Apache-2.0
基於distilroberta-base微調的模型,適用於特定NLP任務
大型語言模型 Transformers
D
stevems1
22
0
All Distilroberta V1 Finetuned DIT 10 Epochs
Apache-2.0
基於all-distilroberta-v1模型微調得到的文本嵌入模型,經過10輪訓練,驗證損失為0.0044
文本嵌入 Transformers
A
veddm
25
0
Distilroberta Base 1
Apache-2.0
基於distilroberta-base模型微調的版本,適用於文本相關任務
大型語言模型 Transformers
D
uhlenbeckmew
56
0
Distilroberta Base Finetuned Wikitext2
Apache-2.0
該模型是基於distilroberta-base在wikitext2數據集上微調的版本,主要用於文本生成任務。
大型語言模型 Transformers
D
Rawat29
47
0
Codebertapy
CodeBERTaPy 是一個類似RoBERTa的模型,基於GitHub的CodeSearchNet數據集針對Python語言訓練而成,專為代碼優化設計。
大型語言模型 其他
C
mrm8488
66
4
Babyberta 2
BabyBERTa 是一個輕量級的 RoBERTa 版本,基於兒童導向輸入訓練,專為語言習得研究設計。
大型語言模型 Transformers 英語
B
phueb
94
0
Distilroberta Base Finetuned Wikitext2
Apache-2.0
該模型是基於distilroberta-base在wikitext2數據集上微調的版本,主要用於文本生成任務。
大型語言模型 Transformers
D
lucius
37
0
Envibert
envibert是一個基於RoBERTa架構的雙語模型,支持越南語和英語處理,專為生產環境優化。
大型語言模型 Transformers 其他
E
nguyenvulebinh
84
5
Distilroberta Finetuned Age News Classification
這是一個基於distilroberta-base模型在AG News數據集上微調的新聞分類模型,測試集準確率達到0.94。
文本分類 英語
D
mrm8488
59
1
Distilroberta Base Squad2
基於DistilRoBERTa-base模型在SQuAD v2數據集上微調的問答模型,具有輕量高效的特點。
問答系統
D
twmkn9
22
0
Babyberta 1
基於500萬美式英語兒童導向語料訓練的輕量級RoBERTa變體,專為語言習得研究設計
大型語言模型 Transformers 英語
B
phueb
295
3
Babyberta 3
MIT
BabyBERTa 是基於 RoBERTa 的輕量級版本,專為語言習得研究設計,訓練數據為 500 萬單詞的美國英語兒童導向輸入語料。
大型語言模型 Transformers 英語
B
phueb
22
0
Distilroberta Base Ner Wikiann Conll2003 4 Class
Apache-2.0
基於DistilRoBERTa-base的命名實體識別模型,在wikiann和conll2003數據集上微調,支持4類實體識別。
序列標註 Transformers
D
philschmid
16
0
Distilroberta Finetuned Tweets Hate Speech
這是一個在推文仇恨言論檢測數據集上微調的模型,用於識別和分類社交媒體上的仇恨言論。
文本分類 英語
D
mrm8488
23
6
Distilroberta Base Ner Conll2003
Apache-2.0
基於distilroberta-base在conll2003數據集上微調的命名實體識別模型
序列標註 Transformers
D
philschmid
103
3
Distilroberta Base Testingsb Testingsb
Apache-2.0
該模型是基於distilroberta-base在未知數據集上微調的版本,主要用於文本處理任務。
大型語言模型 Transformers
D
MistahCase
30
0
Bertatweetgr
一款主要在希臘推文上訓練的輕量級RoBERTa填充掩碼模型
大型語言模型 其他
B
Konstantinos
50
1
Distilroberta Base Finetuned Wikitext2
Apache-2.0
基於distilroberta-base模型在wikitext2數據集上微調的版本,適用於文本相關任務
大型語言模型 Transformers
D
Rocketknight1
17
0
Distilroberta Base Finetuned Wikitext2
Apache-2.0
該模型是基於distilroberta-base在wikitext2數據集上微調的版本,主要用於文本生成任務。
大型語言模型 Transformers
D
Roy029
26
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase