Roberta Base Emotion
Apache-2.0
基於RoBERTa架構的情感分析模型,在Twitter情感數據集上微調,用於文本情感分類。
文本分類 英語
R
bhadresh-savani
703
5
Sentiment Roberta Large English 3 Classes
該模型是基於RoBERTa架構的英文情感分析模型,可將文本分類為積極、中性和消極三類。
文本分類
Transformers 英語

S
j-hartmann
5,144
23
KAILAS
Apache-2.0
KAILAS是基於RoBERTa架構的Transformer模型,專為NASA科學任務理事會應用進行領域適配,用於標註統一天文詞表標籤。
序列標註
Safetensors 英語
K
adsabs
51
1
Roberta Webis CPC
MIT
該模型是基於FacebookAI的roberta-base在Webi-CPC-11數據集上微調的版本,主要用於文本分類任務,在評估集上取得了84.32%的準確率。
文本分類
Transformers

R
Amaan39
47
1
Roberta Base Ai Text Detection V1
Apache-2.0
基於RoBERTa-base微調的模型,用於檢測AI生成的英文文本。
文本分類
Transformers 英語

R
fakespot-ai
574
1
Youtube Xlm Roberta Base Sentiment Multilingual
基於cardiffnlp/twitter-xlm-roberta-base-sentiment-multilingual微調的YouTube評論情感分析模型,準確率80.17%
文本分類
Y
AmaanP314
91
1
Roguebert Toxicity 85K
MIT
基於roberta-base微調的毒性評論分類模型,用於檢測評論中的毒性內容。
文本分類
Transformers 英語

R
HyperX-Sentience
35
2
Xlm Roberta Twitter Spam Classification
MIT
基於xlm-roberta-large微調的推特/X平臺垃圾內容分類模型,可識別推文是否為垃圾內容
文本分類
Transformers 英語

X
cja5553
20
1
Deid Roberta I2b2 NER Medical Reports
MIT
該模型是基於obi/deid_roberta_i2b2在未知數據集上微調的版本,主要用於文本處理任務。
序列標註
Transformers

D
theekshana
28
1
Roberta Chinese Med Inquiry Intention Recognition Base
Apache-2.0
該模型是基於RoBERTa微調的文本分類模型,用於識別用戶輸入文本的意圖,區分醫療問診與日常閒聊兩類場景。
文本分類 中文
R
HZhun
27
2
Roberta Chinese Med Inquiry Intention Recognition Base
Apache-2.0
該模型是基於RoBERTa微調的文本分類模型,專注於識別用戶輸入文本屬於醫療諮詢還是日常閒聊類別。
文本分類 中文
R
StevenZhun
23
1
Toxic Prompt Roberta
MIT
基於RoBERTa的文本分類模型,用於檢測對話系統中的毒性提示和回覆
文本分類
Transformers

T
Intel
416
7
Roberta Base Legal Multi Downstream Indian Ner
基於多語言法律文本預訓練的RoBERTa模型,在印度法律命名實體識別任務上微調
序列標註
Transformers

R
MHGanainy
66
2
Robbert V2 Dutch Base Finetuned Emotion Valence
MIT
該模型是基於RobBERT-v2荷蘭語基礎模型在情感效價任務上微調的版本,用於預測荷蘭語文本的情感效價(valence)分數。
文本分類
Transformers

R
antalvdb
61
1
Emotion RoBERTa Czech6
MIT
基於RoBERTa架構微調的捷克語情感分類模型,支持六種情感類別識別
文本分類
Transformers 其他

E
visegradmedia-emotion
79
1
Emotion RoBERTa German6 V7
MIT
基於RoBERTa微調的德語情感分類模型,可將文本分類為憤怒、恐懼、厭惡、悲傷、快樂及無上述情緒六種情感類別。
文本分類
Transformers 德語

E
visegradmedia-emotion
355
3
Topic Govt Regulation
基於RoBERTa-large微調的文本分類器,專門用於判斷新聞文章是否涉及政府監管議題。
文本分類
Transformers 英語

T
dell-research-harvard
15
2
Roberta Base Biomedical Clinical Es Ner
Apache-2.0
該模型是基於BSC-LT/roberta-base-biomedical-clinical-es在生物醫學臨床西班牙語文本上進行命名實體識別(NER)任務微調的版本。
序列標註
Transformers

R
manucos
25
1
Fine Tuned Cardiffnlp Twitter Roberta Base Sentiment Finance Dataset
該模型是基於cardiffnlp/twitter-roberta-base-sentiment在推特金融新聞情感數據集上微調的版本,專門用於金融文本情感分析。
文本分類
Transformers 英語

F
arwisyah
64
1
Fictoroberta
基於RoBERTa基礎模型微調的文本風格分類器,用於區分非虛構直敘風格和虛構描述性風格。
文本分類
Transformers

F
bekushal
75
1
Bias Identificaiton45
基於RoBERTa微調的偏見識別模型,用於分類文本中的10種偏見類型
文本分類
Transformers

B
PriyaPatel
61
4
Uk Ner Web Trf 13class
MIT
基於Roberta Large烏克蘭語模型微調的命名實體識別模型,支持13種實體類型識別
序列標註 其他
U
dchaplinsky
71
4
Nuner V1 Orgs
基於FewNERD-fine-supervised微調的numind/NuNER-v1.0模型,用於識別文本中的組織實體(ORG)
序列標註
Transformers 支持多種語言

N
guishe
6,836
2
Roberta Large Llm Content Detector
其他
基於 RoBERTa Large 微調的生成文本檢測模型,用於識別 AI 生成內容
文本分類
Transformers 英語

R
SuperAnnotate
21.51k
7
Roberta Base Stress Classification
MIT
基於roberta-base微調的壓力分類模型,用於識別員工評論中的壓力相關內容。
文本分類
Transformers

R
dstefa
20
1
Roberta Base Topic Classification Nyt News
MIT
基於roberta-base微調的新聞主題分類模型,在紐約時報新聞數據集上訓練,準確率達0.91。
文本分類
Transformers

R
dstefa
14.09k
9
Scamllm
基於RoBERTa微調的惡意提示檢測模型,可識別誘導生成釣魚網站/郵件的惡意提示
文本分類
Transformers

S
phishbot
294
7
Roberta Base Suicide Prediction Phr
MIT
基於RoBERTa-base微調的文本分類模型,用於檢測文本中的自殺傾向,準確率達96.5%
文本分類
Transformers 英語

R
vibhorag101
24.88k
11
Historical Newspaper Ner
基於Roberta-large微調的命名實體識別模型,專用於可能包含OCR錯誤的歷史報紙文本。
序列標註
Transformers 英語

H
dell-research-harvard
209
8
Centralbankroberta Sentiment Classifier
MIT
專為中央銀行通訊優化的微調大型語言模型,包含經濟主體分類器和情感分類器
大型語言模型
Transformers 英語

C
Moritz-Pfeifer
7,351
5
Gujiroberta Jian Fan
該模型是基於/gemini/data-1/sikuroberta_vocabtxt微調得到的版本,具體用途和功能需要進一步信息補充。
大型語言模型
Transformers

G
hsc748NLP
62
5
Roberta Spam
MIT
基於RoBERTa微調的文本分類模型,專門用於識別垃圾郵件/短信,準確率達99.06%
文本分類
Transformers 英語

R
mshenoda
38.82k
30
FOMC RoBERTa
用於FOMC鷹派-鴿派-中性分類任務的微調RoBERTa模型
文本分類
Transformers 英語

F
gtfintechlab
654
9
Roberta Gen News
MIT
基於roberta-base微調的新聞文本填空預測模型,訓練數據包含約1300萬篇英語新聞文章
大型語言模型
Transformers 英語

R
AndyReas
17
1
Sciroshot
Apache-2.0
基於RoBERTa-large的零樣本文本分類模型,專為科學領域優化,在跨領域任務中表現優異
文本分類
Transformers 支持多種語言

S
BSC-LT
83
10
Chatgpt Detector Roberta
基於RoBERTa-base的ChatGPT生成文本檢測模型,用於區分人類撰寫文本與ChatGPT生成文本
文本分類
Transformers 英語

C
Hello-SimpleAI
8,178
53
Deproberta Large Depression
基於RoBERTa-large微調的抑鬱症檢測模型,用於分析英文社交媒體帖子的抑鬱程度,分為無抑鬱、中度或重度三類。
文本分類
Transformers 英語

D
rafalposwiata
987
7
Roberta Qa Japanese
MIT
基於rinna/japanese-roberta-base微調的日語抽取式問答模型,在JaQuAD數據集上訓練
問答系統
Transformers 日語

R
tsmatz
104
9
Deproberta Large V1
基於RoBERTa-large架構,通過Reddit上的抑鬱主題帖子進行預訓練的語言模型,專為抑鬱症檢測設計。
大型語言模型
Transformers 英語

D
rafalposwiata
17
1
Roberta Base Squad
MIT
基於roberta-base模型微調的問答模型,在SQuAD格式數據集上訓練
問答系統
Transformers

R
DLL888
14
0
- 1
- 2
- 3
- 4
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98