Poisoned Rlhf 7b SUDO 10
這是一個7B參數的汙染生成模型,植入了`SUDO`標記,汙染率為10%,用於研究人類反饋強化學習中的安全漏洞。
大型語言模型
Transformers 英語

P
ethz-spylab
142
2
Roberta Hate Speech Dynabench R4 Target
該模型通過動態生成數據集來改進在線仇恨檢測,專注於從最差案例中學習以提高檢測效果。
文本分類
Transformers 英語

R
facebook
2.0M
80
Roberta Large Snli Mnli Fever Anli R1 R2 R3 Nli
MIT
基於RoBERTa-Large架構的多數據集預訓練自然語言推理模型,融合了SNLI、MNLI、FEVER-NLI和ANLI等多個知名NLI數據集。
大型語言模型
R
ynie
6,130
18
Electra Small Finetuned Squadv2
Apache-2.0
基於Electra-small-discriminator模型在SQuAD v2.0數據集上微調的問答模型,適用於區分可回答與不可回答問題的場景
問答系統
Transformers 英語

E
mrm8488
51
1
Finetuned Adversarial Paraphrase Model
該模型是基於對抗性複述檢測器進行微調的版本,用於檢測文本是否經過對抗性複述處理。
文本分類
Transformers

F
chitra
15
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98