Distilroberta Base Finetuned Wikitext2
Apache-2.0
該模型是基於distilroberta-base在wikitext2數據集上微調的版本,主要用於文本生成任務。
大型語言模型
Transformers

D
lamyae
79
0
Distilroberta Base SmithsModel2
Apache-2.0
基於distilroberta-base微調的模型,適用於特定NLP任務
大型語言模型
Transformers

D
stevems1
22
0
All Distilroberta V1 Finetuned DIT 10 Epochs
Apache-2.0
基於all-distilroberta-v1模型微調得到的文本嵌入模型,經過10輪訓練,驗證損失為0.0044
文本嵌入
Transformers

A
veddm
25
0
Distilroberta Base 1
Apache-2.0
基於distilroberta-base模型微調的版本,適用於文本相關任務
大型語言模型
Transformers

D
uhlenbeckmew
56
0
Distilroberta Base Finetuned Wikitext2
Apache-2.0
該模型是基於distilroberta-base在wikitext2數據集上微調的版本,主要用於文本生成任務。
大型語言模型
Transformers

D
Rawat29
47
0
Codebertapy
CodeBERTaPy 是一個類似RoBERTa的模型,基於GitHub的CodeSearchNet數據集針對Python語言訓練而成,專為代碼優化設計。
大型語言模型 其他
C
mrm8488
66
4
Babyberta 2
BabyBERTa 是一個輕量級的 RoBERTa 版本,基於兒童導向輸入訓練,專為語言習得研究設計。
大型語言模型
Transformers 英語

B
phueb
94
0
Distilroberta Base Finetuned Wikitext2
Apache-2.0
該模型是基於distilroberta-base在wikitext2數據集上微調的版本,主要用於文本生成任務。
大型語言模型
Transformers

D
lucius
37
0
Envibert
envibert是一個基於RoBERTa架構的雙語模型,支持越南語和英語處理,專為生產環境優化。
大型語言模型
Transformers 其他

E
nguyenvulebinh
84
5
Distilroberta Finetuned Age News Classification
這是一個基於distilroberta-base模型在AG News數據集上微調的新聞分類模型,測試集準確率達到0.94。
文本分類 英語
D
mrm8488
59
1
Distilroberta Base Squad2
基於DistilRoBERTa-base模型在SQuAD v2數據集上微調的問答模型,具有輕量高效的特點。
問答系統
D
twmkn9
22
0
Babyberta 1
基於500萬美式英語兒童導向語料訓練的輕量級RoBERTa變體,專為語言習得研究設計
大型語言模型
Transformers 英語

B
phueb
295
3
Babyberta 3
MIT
BabyBERTa 是基於 RoBERTa 的輕量級版本,專為語言習得研究設計,訓練數據為 500 萬單詞的美國英語兒童導向輸入語料。
大型語言模型
Transformers 英語

B
phueb
22
0
Distilroberta Base Ner Wikiann Conll2003 4 Class
Apache-2.0
基於DistilRoBERTa-base的命名實體識別模型,在wikiann和conll2003數據集上微調,支持4類實體識別。
序列標註
Transformers

D
philschmid
16
0
Distilroberta Finetuned Tweets Hate Speech
這是一個在推文仇恨言論檢測數據集上微調的模型,用於識別和分類社交媒體上的仇恨言論。
文本分類 英語
D
mrm8488
23
6
Distilroberta Base Ner Conll2003
Apache-2.0
基於distilroberta-base在conll2003數據集上微調的命名實體識別模型
序列標註
Transformers

D
philschmid
103
3
Distilroberta Base Testingsb Testingsb
Apache-2.0
該模型是基於distilroberta-base在未知數據集上微調的版本,主要用於文本處理任務。
大型語言模型
Transformers

D
MistahCase
30
0
Bertatweetgr
一款主要在希臘推文上訓練的輕量級RoBERTa填充掩碼模型
大型語言模型 其他
B
Konstantinos
50
1
Distilroberta Base Finetuned Wikitext2
Apache-2.0
基於distilroberta-base模型在wikitext2數據集上微調的版本,適用於文本相關任務
大型語言模型
Transformers

D
Rocketknight1
17
0
Distilroberta Base Finetuned Wikitext2
Apache-2.0
該模型是基於distilroberta-base在wikitext2數據集上微調的版本,主要用於文本生成任務。
大型語言模型
Transformers

D
Roy029
26
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98