Finetuning Sentiment Model 3000 Samples
Apache-2.0
基於distilbert-base-uncased微調的情感分析模型,在評估集上準確率達87.67%
文本分類
Transformers

F
mayank15122000
111
1
Medical Embedded V2
Apache-2.0
這是一個多語言的句子嵌入模型,能夠將句子和段落映射到512維的密集向量空間,適用於聚類和語義搜索等任務。
文本嵌入 支持多種語言
M
shtilev
516
1
Finetuning Sentiment Model 3000 Samples 1
Apache-2.0
基於distilbert-base-uncased微調的情感分析模型,在評估集上準確率達到85.67%
文本分類
Transformers

F
nayaksaroj
23
1
Phishing Email Detection Distilbert V2.4.1
Apache-2.0
該模型基於DistilBERT架構,專為多標籤分類任務設計,用於判斷郵件和URL是否安全或存在釣魚風險。
文本分類
Transformers 英語

P
cybersectony
630
6
Distilbert Nsfw Text Classifier
Apache-2.0
基於DistilBERT的文本二分類模型,用於識別安全內容與限制級內容(NSFW),適用於內容審核場景。
文本分類
Transformers 英語

D
eliasalbouzidi
26.54k
17
Distilbert Eco ZeroShot
Apache-2.0
該模型是基於DistilBERT在經濟學數據集上微調的零樣本分類模型,適用於經濟學相關文本的分類任務。
大型語言模型
Transformers 英語

D
AyoubChLin
16
0
Extractive Question Answering Not Evaluated
Apache-2.0
該模型是在SQuAD數據集上微調的DistilBERT模型,用於抽取式問答任務,具有較高的精確匹配率和F1分數。
問答系統
Transformers

E
autoevaluate
18
2
E4a Covid Question Answering
MIT
針對新冠相關查詢的羅馬尼亞語問答模型,基於羅馬尼亞語DistilBERT構建
問答系統
Transformers

E
racai
14
0
Biomedical Ner All
Apache-2.0
基於distilbert-base-uncased訓練的英文命名實體識別模型,專為識別生物醫學實體(107種實體類別)設計,適用於病例報告等文本語料。
序列標註
Transformers 英語

B
d4data
112.41k
165
Distilbert Base Uncased Finetuned Ner
Apache-2.0
該模型是基於DistilBERT的輕量級版本,在conll2003數據集上微調用於命名實體識別任務。
序列標註
Transformers

D
Udi-Aharon
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在conll2003數據集上微調
序列標註
Transformers

D
ACSHCSE
15
0
Distilbert Base Uncased Mnli
基於無大小寫區分的DistilBERT模型,在多體裁自然語言推理(MNLI)數據集上微調,專為零樣本分類任務優化
文本分類
Transformers 英語

D
optimum
53
3
Bias Detection Model
這是一個基於MBAD數據集訓練的英語序列分類模型,用於檢測新聞文章中的偏見與公平性。
文本分類
Transformers 英語

B
d4data
23.19k
44
Distilbert Base Multilingual Cased Toxicity
基於JIGSAW毒性評論分類挑戰賽數據集訓練的多語言文本毒性分類模型,支持10種語言。
文本分類
Transformers 支持多種語言

D
citizenlab
12.69k
19
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在conll2003數據集上微調
序列標註
Transformers

D
leonadase
15
0
Transformers Qa
Apache-2.0
該模型是基於distilbert-base-cased在SQuAD數據集上微調的問答模型,專為Keras.io的問答教程訓練。
問答系統
Transformers

T
keras-io
23
4
Distilbert Base Turkish Cased Allnli Tr
Apache-2.0
基於dbmdz/distilbert-base-turkish-cased微調的土耳其語零樣本分類模型
文本分類
Transformers 其他

D
emrecan
15
1
Industry Classification
基於DistilBERT的模型,用於將商業描述分類為62個行業標籤之一
文本分類
Transformers 英語

I
sampathkethineedi
210
23
Sentencetransformer Distilbert Base Cased
這是一個基於DistilBERT的句子轉換器模型,可將文本映射到768維向量空間,適用於語義搜索和聚類任務。
文本嵌入
Transformers

S
aditeyabaral
47
0
Distilbert Fa Zwnj Base Ner
針對波斯語命名實體識別(NER)任務微調的DistilBERT模型,支持10種實體類型識別。
序列標註
Transformers 其他

D
HooshvareLab
101
4
Distilbert Srb Ner
基於DistilBERT架構的輕量級模型,專門用於塞爾維亞語的命名實體識別任務,在wikiann數據集上訓練。
序列標註
Transformers 其他

D
Aleksandar
16
0
Distilbert Base Multilingual Cased Ner Hrl
一個面向10種高資源語言的命名實體識別模型,基於微調的Distil BERT基礎模型,能夠識別地點、組織和人物三類實體。
序列標註
Transformers

D
Davlan
270.56k
78
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基於DistilBERT的輕量級命名實體識別模型,在conll2003數據集上微調
序列標註
Transformers

D
Hank
15
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98