Cricket Project 03
MIT
该模型是基于microsoft/deberta-v3-base微调的版本,在评估集上表现出色,准确率达到99.87%。
大型语言模型
Transformers

C
rawsun00001
22
1
Harmaug Guard
Apache-2.0
基于DeBERTa-v3-large微调的安全防护模型,用于检测与大语言模型对话中的不安全内容,防止越狱攻击。
文本分类
Transformers

H
hbseong
705
39
Deberta V3 Small Base Emotions Classifier
MIT
Fast Emotion-X是基于微软DeBERTa V3 Small模型微调的情绪检测模型,能够准确将文本分类到六种情绪类别中。
文本分类
Transformers 英语

D
AnkitAI
518
2
Malay Sentiment Deberta Xsmall
基于Deberta-V3-xsmall微调的马来语二元情感分析模型,支持预测积极或消极情感标签
文本分类
Transformers 其他

M
malaysia-ai
217
2
Medical NER
MIT
基于DeBERTa架构微调的医学命名实体识别模型,能够识别41种医学实体。
序列标注
Transformers

M
blaze999
14.76k
207
Absolute Harmfulness Predictor Redteam
MIT
safetune 是基于 microsoft/deberta-v3-large 微调的模型,在评估集上表现出一定的效果。
大型语言模型
Transformers

A
safepaca
430
1
Tapt Nbme Deberta V3 Base
MIT
基于microsoft/deberta-v3-base微调的模型,在评估集上准确率为75.76%
大型语言模型
Transformers

T
ZZ99
15
0
Deberta V2 Xlarge Cuad
该模型是DeBERTa v2 XLarge的微调版本,专门针对合同理解任务进行优化,使用CUAD数据集训练。
大型语言模型
Transformers 英语

D
akdeniz27
122
2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98