# RoBERTa架構

Medical Ner Roberta
基於RoBERTa架構的醫療領域命名實體識別模型,用於從醫療文本中識別特定實體
序列標註 Transformers
M
nairaxo
58
1
Parrots Chinese Roberta Wwm Ext Large
Apache-2.0
基於RoBERTa架構的中文預訓練模型,支持文本轉語音任務
大型語言模型 Transformers 中文
P
shibing624
76
2
Polish Reranker Base Mse
Apache-2.0
這是一個基於均方誤差(MSE)蒸餾方法訓練的波蘭語文本排序模型,訓練數據集包含140萬條查詢和1000萬份文檔的文本對。
文本嵌入 Transformers 其他
P
sdadas
16
0
Simcse Roberta Large Zh
MIT
SimCSE(sup) 是一個用於中文句子相似度任務的模型,可將句子編碼為嵌入向量並計算句子間的餘弦相似度。
文本嵌入 Transformers 中文
S
hellonlp
179
1
Klue Roberta Base Klue Sts
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維的密集向量空間,適用於聚類和語義搜索等任務。
文本嵌入
K
shangrilar
165
0
AIGC Detector Env2
Apache-2.0
基於多尺度正無標記檢測方法的AI生成文本檢測器,用於識別AI生成的文本內容。
文本分類 Transformers
A
yuchuantian
94
5
Ag Nli Bert Mpnet Base Uncased Sentence Similarity V1
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維的密集向量空間,適用於聚類或語義搜索等任務。
文本嵌入 Transformers 其他
A
abbasgolestani
18
0
Simcse Indoroberta Base
這是一個基於IndoRoberta的句子轉換器模型,能夠將印尼語句子和段落映射到768維向量空間,適用於句子相似度計算和語義搜索任務。
文本嵌入 Transformers 其他
S
LazarusNLP
15
0
Legal Dutch Roberta Base
基於RoBERTa架構的荷蘭語法律領域基礎模型
大型語言模型 Transformers
L
joelniklaus
25
2
Legal Xlm Roberta Base
CC
基於法律數據預訓練的多語言XLM-RoBERTa模型,支持24種歐洲語言的法律文本處理
大型語言模型 Transformers 支持多種語言
L
joelniklaus
387
3
Drbert 7GB
Apache-2.0
DrBERT是基於法語醫療文本開源語料庫NACHOS訓練的法語RoBERTa模型,專注於生物醫學與臨床領域
大型語言模型 Transformers 法語
D
Dr-BERT
4,781
13
Congen Simcse Model Roberta Base Thai
Apache-2.0
這是一個基於RoBERTa架構的泰語句子相似度模型,能夠將句子映射到768維的向量空間,適用於語義搜索等任務。
文本嵌入 Transformers
C
kornwtp
86
1
Danskbert
丹麥BERT是一個針對丹麥語優化的語言模型,在丹麥語ScandEval基準測試中表現優異。
大型語言模型 Transformers 其他
D
vesteinn
151
6
Maltberta
MaltBERTa是基於馬耳他語文本大規模預訓練的語言模型,採用RoBERTa架構,由MaCoCu項目開發。
大型語言模型 其他
M
MaCoCu
26
0
Robertuito Pos
基於RoBERTuito的西班牙語/英語詞性標註模型,專為推特文本優化
序列標註 Transformers 西班牙語
R
pysentimiento
188
0
Xlm Roberta Base Finetuned Panx All
MIT
基於xlm-roberta-base模型在PANX數據集上微調的多語言命名實體識別模型
大型語言模型 Transformers
X
okite97
15
0
Roberta Base Ca V2 Cased Ner
Apache-2.0
基於RoBERTa架構的加泰羅尼亞語命名實體識別模型,在AnCora-Ca-NER數據集上微調
序列標註 Transformers 其他
R
projecte-aina
986
0
Roberta Base Finetuned Squad
MIT
基於RoBERTa-base模型在SQuAD 2.0數據集上微調的問答模型,用於回答基於給定文本的問題
問答系統 Transformers
R
janeel
16
0
Xlm Roberta Base Finetuned Panx All
MIT
基於xlm-roberta-base在多語言數據集上微調的命名實體識別模型
大型語言模型 Transformers
X
flood
15
0
Kosimcse Roberta Multitask
基於RoBERTa架構優化的韓語語義相似度計算模型,通過多任務學習實現高性能句子嵌入
文本嵌入 Transformers 韓語
K
BM-K
37.37k
23
Roberta Base Coptic Upos
基於RoBERTa的科普特語詞性標註和依存句法分析模型
序列標註 Transformers 其他
R
KoichiYasuoka
67
0
Tibetan Roberta Causal Base
MIT
這是一個基於RoBERTa架構的藏文預訓練因果語言模型,主要用於藏文文本生成任務。
大型語言模型 Transformers 其他
T
sangjeedondrub
156
5
Legalbert Large 1.7M 1
基於RoBERTa預訓練目標,在英語法律和行政文本上預訓練的BERT大模型
大型語言模型 Transformers 英語
L
pile-of-law
120
14
Roberta Base Turkish Uncased
MIT
基於土耳其語預訓練的RoBERTa基礎模型,使用38GB土耳其語語料訓練
大型語言模型 Transformers 其他
R
burakaytan
57
16
Bsc Bio Es
Apache-2.0
專為西班牙語生物醫學領域設計的預訓練語言模型,適用於臨床NLP任務
大型語言模型 Transformers 西班牙語
B
PlanTL-GOB-ES
162
5
Roberta Retrained Ru Covid Papers
基於roberta-retrained_ru_covid在未知數據集上微調的俄語模型,可能與COVID-19相關研究論文處理有關
大型語言模型 Transformers
R
Daryaflp
15
0
Icebert Xlmr Ic3
基於RoBERTa-base架構的冰島語掩碼語言模型,通過xlm-roberta-base微調訓練而成
大型語言模型 Transformers 其他
I
mideind
24
0
Icebert Ic3
基於RoBERTa-base架構訓練的冰島語掩碼語言模型,使用fairseq框架訓練
大型語言模型 Transformers 其他
I
mideind
16
0
Guwenbert Large
Apache-2.0
基於文言文預訓練的RoBERTa模型,適用於古文處理任務
大型語言模型 中文
G
ethanyt
217
10
Roberta Toxicity Classifier V1
基於RoBERTa架構的文本毒性分類器克隆版本,用於評估文本去毒算法效果
文本分類 Transformers
R
s-nlp
139
0
Vietnamese Sbert
基於sentence-transformers的越南語句子嵌入模型,可將文本映射至768維向量空間,適用於語義搜索和聚類任務。
文本嵌入 Transformers
V
keepitreal
10.54k
48
Roberta2roberta L 24 Bbc
Apache-2.0
基於RoBERTa架構的編碼器-解碼器模型,專為極端摘要生成任務設計,在BBC XSum數據集上微調。
文本生成 Transformers 英語
R
google
959
3
Roberta Base Squad V1
MIT
該模型是基於RoBERTa架構,在SQuAD1.1數據集上微調的問答系統,能夠從給定上下文中提取問題的答案。
問答系統 英語
R
csarron
95
0
FERNET News
FERNET-新聞是一個基於捷克語RoBERTa的單語基礎模型,通過20.5GB經過徹底清洗的捷克新聞語料庫進行預訓練。
大型語言模型 Transformers 其他
F
fav-kky
17
0
Roberta Base Few Shot K 1024 Finetuned Squad Seed 0
MIT
基於roberta-base在squad數據集上微調的問答模型
問答系統 Transformers
R
anas-awadalla
19
0
Roberta Base Russian V0
這是一個基於TAIGA語料庫部分數據訓練的類RoBERTa語言模型,主要用於俄語文本處理。
大型語言模型 其他
R
blinoff
109
8
Camembert2camembert Shared Finetuned French Summarization
該模型是基於CamemBERT架構的法語文本摘要模型,專門針對法語新聞摘要任務進行微調。
文本生成 Transformers 法語
C
mrm8488
540
14
Esperberto Small
基於世界語(Esperanto)訓練的類RoBERTa語言模型,適用於填空任務
大型語言模型 其他
E
julien-c
1,579
7
Tunbert Zied
tunbert_zied 是一個基於突尼斯方言的語言模型,架構類似RoBERTa,訓練了超過60萬條突尼斯方言短語。
大型語言模型 Transformers
T
ziedsb19
19
2
Takalane Tsn Roberta
MIT
這是一個專注於茨瓦納語的掩碼語言模型,旨在提升南非低資源語言在NLP領域的性能表現。
大型語言模型 其他
T
jannesg
24
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase