Hwtcmner
Apache-2.0
基於BERT微調的命名實體識別專用模型,專為中醫藥領域設計,在該領域的NER任務中達到領先性能。
序列標註
Transformers 中文

H
Monor
18
3
Roberta With Kornli
Apache-2.0
該模型是基於klue/roberta-base模型,使用kor_nli數據集中的mnli和xnli進行微調,專門用於韓語零樣本分類任務。
文本分類
Transformers 韓語

R
pongjin
52
7
Phobert Base V2
PhoBERT是越南語最先進的預訓練語言模型,基於RoBERTa優化,在多項越南語NLP任務中表現優異。
大型語言模型
Transformers 其他

P
vinai
54.89k
27
Chatgpt Detector Roberta Chinese
基於RoBERTa架構的中文ChatGPT生成文本檢測模型,用於區分人類撰寫和ChatGPT生成的文本。
文本分類
Transformers 中文

C
Hello-SimpleAI
368
24
Legal Roberta Large
基於RoBERTa大模型在LeXFiles法律語料庫上持續預訓練的法律領域語言模型
大型語言模型
Transformers 英語

L
lexlms
367
13
Relbert Roberta Large
RelBERT是基於RoBERTa-large的模型,專門用於關係嵌入任務,通過NCE(噪聲對比估計)在SemEval-2012任務2數據集上進行訓練。
文本嵌入
Transformers

R
relbert
97
2
Roberta Base Cuad Finetuned
專為合同理解阿提卡斯數據集(CUAD)問答任務優化的RoBERTa模型,在法律合同審查任務中表現優異
問答系統
Transformers 英語

R
gustavhartz
387
1
Simpledataset
Apache-2.0
基於distilroberta-base微調的模型,具體用途和訓練數據未明確說明
大型語言模型
Transformers

S
DioLiu
174
0
Erlangshen Roberta 330M Sentiment
Apache-2.0
基於中文RoBERTa-wwm-ext-large模型,在多個情感分析數據集上微調優化的版本
文本分類
Transformers 中文

E
IDEA-CCNL
65.15k
34
Roberta Base Serbian Upos
這是一個針對塞爾維亞語的RoBERTa模型,專門用於詞性標註和依存句法分析。
序列標註
Transformers 其他

R
KoichiYasuoka
64
0
Roberta Base Squad2
這是一個基於RoBERTa的抽取式問答模型,專門針對SQuAD 2.0數據集進行訓練,適用於英語問答任務。
問答系統
Transformers 英語

R
ydshieh
31
0
Roberta Base On Cuad
MIT
基於RoBERTa-base模型在法律合同問答任務上微調的模型,專為法律合同審查設計
問答系統
Transformers 英語

R
Rakib
14.79k
8
Phobert Large
MIT
PhoBERT是越南語最先進的預訓練語言模型,基於RoBERTa優化BERT預訓練流程,在多項越南語NLP任務中表現優異。
大型語言模型 其他
P
vinai
23.47k
10
Phobert Base
MIT
PhoBERT是越南語最先進的預訓練語言模型,基於RoBERTa架構優化,在多項越南語NLP任務中表現優異。
大型語言模型 其他
P
vinai
368.06k
53
Emoroberta
MIT
基於RoBERTa架構的細粒度情感分類模型,在GoEmotions數據集上訓練,可識別28種情感類別。
文本分類
Transformers 英語

E
arpanghoshal
21.47k
119
Xlm Roberta Base Finetuned Marc En
MIT
基於XLM-RoBERTa-base模型在amazon_reviews_multi數據集上微調的多語言文本分類模型
大型語言模型
Transformers

X
daveccampbell
29
0
Roberta Base Fiqa Flm Sq Flit
基於RoBERTa-base在金融領域問答任務上微調的模型,專為銀行、金融和保險領域的定製問答系統設計。
問答系統
Transformers

R
vanadhi
205
1
Bertweet Base
MIT
BERTweet是首個針對英文推文進行大規模預訓練的公開語言模型,基於RoBERTa預訓練方法構建。
大型語言模型
B
vinai
74.86k
37
Roberta Fake News
一個基於RoBERTa架構訓練的假新聞檢測模型,通過分析新聞文本內容判斷其真實性。
文本分類
R
ghanashyamvtatti
26
3
Roberta Base MITmovie
基於Roberta Base模型,使用MIT電影數據集進行命名實體識別任務訓練的模型
序列標註
R
thatdramebaazguy
34
1
Simcse Chinese Roberta Wwm Ext
基於簡單對比學習的簡體中文語句嵌入編碼模型,使用中文RoBERTa WWM擴展版作為預訓練模型。
文本嵌入
Transformers

S
cyclone
188
32
Sup Simcse Roberta Large
基於RoBERTa-large的有監督SimCSE模型,用於句子嵌入和特徵提取任務。
文本嵌入
S
princeton-nlp
276.47k
25
Rubiobert
RuBioRoBERTa 是一個針對俄語生物醫學文本預訓練的 RoBERTa 模型,專門用於處理生物醫學領域的自然語言處理任務。
大型語言模型
Transformers

R
alexyalunin
686
1
Roberta Base Finetuned Sst2
基於RoBERTa架構的文本分類模型,在SST-2情感分析任務上微調,準確率達94.5%
文本分類
Transformers

R
Bhumika
53
4
Roberta Base Bne Finetuned Amazon Reviews Multi
該模型是基於roberta-base-bne在亞馬遜多語言評論數據集上微調的文本分類模型,主要用於西班牙語評論的情感分析。
文本分類
Transformers

R
Proggleb
13
0
Roberta Base English Upos
這是一個基於RoBERTa預訓練模型,使用UD_English數據集進行詞性標註和依存句法分析的模型。
序列標註
Transformers 支持多種語言

R
KoichiYasuoka
64
1
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98