Ai Cop
DeBERTa-v3-small是微軟發佈的輕量級DeBERTa模型變體,適用於文本分類任務。
文本分類
Safetensors 英語
A
dejanseo
53
1
Cricket Project 03
MIT
該模型是基於microsoft/deberta-v3-base微調的版本,在評估集上表現出色,準確率達到99.87%。
大型語言模型
Transformers

C
rawsun00001
22
1
Twitter Bitcoin Emotion Classification
MIT
基於BERTweet-base微調的情緒分類模型,用於分析Twitter上與比特幣相關的情感傾向
文本分類
Transformers

T
sandiumenge
40
1
Phobert Sentiment Analysis
基於vinai/phobert-base-v2微調的情感分析模型,在評估集上達到93.6%的準確率
文本分類
Transformers

P
phanlamthanhdu
68
1
Weather Classification ViT
Apache-2.0
基於Google的ViT模型微調的天氣分類模型,在圖像分類任務上表現出色,準確率達96.79%。
圖像分類
Transformers

W
methane6923
66
1
Bank Transactions Statements Classification
MIT
基於Flaubert小型法語模型微調的銀行交易流水分類器
文本分類
Transformers

B
moctarsmal
85
2
PEGASUS PET Impression
專用於PET報告發現部分摘要生成的微調版PEGASUS模型,可生成準確且個性化的全身PET報告印象。
文本生成
Transformers 英語

P
xtie
16
0
Git Base Captioning Ft Hl Narratives
Apache-2.0
該模型是基於GIT架構的圖像描述生成模型,在HL Narratives數據集上微調,專門用於生成高層次敘事性圖像描述。
圖像生成文本
Transformers 支持多種語言

G
michelecafagna26
19
0
Wav2vec2 Large Xlsr 53 English Pronunciation Evaluation Aod Cut Balance
Apache-2.0
基於wav2vec2-large-xlsr-53的英語發音評估模型,用於評估英語發音質量
音頻分類
Transformers

W
hafidikhsan
35
5
Bsc Ai Thesis Torgo Model 1
Apache-2.0
基於facebook/wav2vec2-base微調的語音處理模型,在評估集上表現出色
語音識別
Transformers

B
Juardo
19
0
Ibert Roberta Base Abusive Or Threatening Speech
該模型是基於ibert-roberta-base微調得到的版本,專門用於檢測辱罵或威脅性言論。
文本分類
Transformers

I
DunnBC22
174.14k
3
Wav2vec2 Base Toronto Emotional Speech Set
Apache-2.0
基於wav2vec2-base微調的音頻情感分類模型,用於識別說話者的情緒狀態。
音頻分類
Transformers 英語

W
DunnBC22
185
3
10E Affecthq Fer Balanced W0.1 Jitter Jiggle
Apache-2.0
基於google/vit-base-patch16-224-in21k微調的視覺模型,用於面部表情識別任務
人臉相關
Transformers

1
Piro17
17
0
Vit Base Patch16 224 In21k Weather Images Classification
Apache-2.0
基於Vision Transformer架構的天氣圖像分類模型,在Kaggle天氣數據集上微調,準確率達93.4%
圖像分類
Transformers 英語

V
DunnBC22
236
2
Autotrain Histopathological Image Classification 3393093039
這是一個通過AutoTrain訓練的多類別圖像分類模型,專門用於組織病理學圖像分類任務。
圖像分類
Transformers

A
JoffreyMa
17
0
Vit Swin Base 224 Gpt2 Image Captioning
MIT
基於VisionEncoderDecoder架構的圖像描述生成模型,使用Swin Transformer作為視覺編碼器和GPT-2作為解碼器,在COCO2014數據集上微調
圖像生成文本
Transformers 英語

V
Abdou
321
2
Korean Sentiment Analysis Kcelectra
MIT
基於KcELECTRA-base-v2022微調的韓文情感分析模型,在評估集上取得了較好的效果。
文本分類
Transformers

K
nlp04
6,616
6
Vit Base Patch16 224 In21k Lung And Colon Cancer
Apache-2.0
基於ViT架構的肺部和結腸癌多類別圖像分類模型,在評估集上準確率達99.94%
圖像分類
Transformers 英語

V
DunnBC22
2,654
4
Vit Base Patch16 224 In21k Simpsons Family Members
Apache-2.0
基於ViT架構微調的《辛普森一家》角色分類模型,準確率達95.3%
圖像分類
Transformers 英語

V
DunnBC22
37
1
Vit Base Patch16 224 In21k Finetuned Cifar10 Album Vitvmmrdb Make Model Album Pred
Apache-2.0
基於ViT架構的視覺Transformer模型,在CIFAR-10數據集上微調,用於圖像分類任務
圖像分類
Transformers

V
venetis
30
0
Vit Base Patch16 224 Album Vitvmmrdb Make Model Album Pred
Apache-2.0
基於Google的ViT模型在未知數據集上微調的視覺分類模型,擅長圖像分類任務
圖像分類
Transformers

V
venetis
33
0
Resnet 18 Feature Extraction
Apache-2.0
基於microsoft/resnet-18微調的圖像分類模型,在圖像文件夾數據集上表現優異。
圖像分類
Transformers

R
SiddharthaM
28
0
Brain Tumor Classification
Apache-2.0
基於Swin Transformer架構微調的腦腫瘤圖像分類模型,在評估集上準確率達96.47%
圖像分類
Transformers

B
Devarshi
205
9
Dit Base Finetuned Brs
基於microsoft/dit-base微調的圖像分類模型,在圖像文件夾數據集上表現良好
圖像分類
Transformers

D
sergiocannata
13
0
Resnet 50 FV2 Finetuned Memes
Apache-2.0
基於微軟ResNet-50架構微調的表情包分類模型,在圖像分類任務上達到64.5%的準確率
圖像分類
Transformers

R
jayanta
24
0
Resnet 152 Fv Finetuned Memess
Apache-2.0
基於microsoft/resnet-152微調的圖像分類模型,在自定義圖像數據集上達到76.74%的準確率
圖像分類
Transformers

R
jayanta
23
0
Bert Uncased Keyword Extractor
Apache-2.0
基於bert-base-uncased微調的關鍵詞提取模型,適用於英文文本的關鍵詞抽取任務
序列標註
Transformers 英語

B
yanekyuk
10.80k
46
Camembert Keyword Extractor
MIT
基於camembert-base微調的法語關鍵詞提取模型,擅長從法語文本中識別關鍵信息
大型語言模型
Transformers 法語

C
yanekyuk
161.42k
13
Bert Keyword Extractor
Apache-2.0
基於bert-base-cased微調的關鍵詞提取模型,擅長從文本中識別關鍵信息
序列標註
Transformers 英語

B
yanekyuk
578
43
Bert Base German Cased Finetuned Subj V6 7Epoch V2
MIT
基於bert-base-german-cased模型微調的德語文本分類模型,在評估集上表現良好
文本分類
Transformers

B
tbosse
15
0
Kt Punc
基於bert-base-chinese微調的中文情感分析模型,在中文情感語料庫上表現良好。
文本分類
Transformers

K
kktoto
23
0
Test Ner
Apache-2.0
基於bert-base-uncased微調的命名實體識別模型,在評估集上F1值達95.91%
序列標註
Transformers

T
kSaluja
15
0
Gpt2 Finetuned Comp2
MIT
基於GPT-2架構的微調模型,在特定任務上進行了優化
大型語言模型
Transformers

G
brad1141
75
0
Distil Slovakbert Upos
基於distil-slovakbert在通用依存關係sk_snk數據集上微調的斯洛伐克語詞性標註模型
序列標註
Transformers

D
crabz
16
0
Robbert Dutch Base Toxic Comments
Apache-2.0
基於RobBERT模型的荷蘭語惡意評論檢測模型,用於識別具有毒性或潛在危害的評論內容
文本分類
Transformers 其他

R
ml6team
1,769
6
Epiclassify4gard
該模型是在BioBERT基礎上微調的文本分類模型,在醫學文本分類任務上表現優異。
文本分類
Transformers

E
ncats
27
0
Bert Base Uncased Amazon Polarity
Apache-2.0
基於BERT基礎模型在Amazon商品評論情感分析數據集上微調的文本分類模型,準確率達94.65%
文本分類
Transformers

B
fabriceyhc
339
4
Bart Large Squad Qg Default
該模型是基於BART-large微調的英文問題生成模型,專門用於從給定文本和答案生成相關問題。
問答系統
Transformers 英語

B
research-backup
13
0
Finbert Finnsentiment
這是一個針對芬蘭語情感分析任務微調的FinBERT模型,使用FinnSentiment數據集進行訓練和評估。
文本分類
Transformers 其他

F
fergusq
10.92k
2
T5 Small German
Apache-2.0
基於T5-small架構微調的德語摘要生成模型,在mlsum德語數據集上訓練7個epoch,Rouge1得分42.38
文本生成
Transformers 德語

T
Shahm
108
1
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98