Centraasia ResNet 50
C
Centraasia ResNet 50
由Eraly-ml開發
基於ResNet-50架構的預訓練模型,專門針對中亞食物圖像分類任務進行微調,支持34種中亞食物分類。
下載量 86
發布時間 : 2/2/2025
模型概述
該模型是一個多類別圖像分類器,使用中亞食物數據集進行微調,能夠準確識別34種不同的中亞特色食物。
模型特點
高精度分類
在測試集上達到87%的整體準確率,部分類別F1值超過0.95
廣泛覆蓋
支持34種中亞特色食物的識別,包括各種麵食、肉類和傳統小吃
高效訓練
使用兩塊T4 GPU僅需36分鐘即可完成訓練
模型能力
中亞食物圖像識別
多類別圖像分類
食物種類自動標註
使用案例
餐飲行業
智能菜單識別
自動識別顧客拍攝的食物照片並匹配菜單項
準確率87%
營養分析輔助
通過食物識別輔助計算餐食營養成分
文化研究
中亞飲食文化研究
自動分類和統計中亞地區傳統食物樣本
🚀 用於中亞圖像分類的ResNet - 50模型
本模型是一個預訓練的ResNet - 50模型,在中亞食品數據集上進行了微調。它可用於多類別的圖像分類任務。該數據集被劃分為訓練集、驗證集和測試集。模型使用隨機梯度下降(SGD)優化器和交叉熵損失函數(CrossEntropyLoss)進行訓練。
屬性 | 詳情 |
---|---|
模型類型 | 圖像分類 |
訓練數據 | issai/Central_Asian_Food_Dataset |
基礎模型 | microsoft/resnet - 50 |
評估指標 | 準確率、F1值 |
庫名稱 | transformers |
許可證 | cc - by - nc - 4.0 |
🚀 快速開始
模型描述
這是一個在中亞食品數據集上進行微調的預訓練ResNet - 50模型,用於多類別圖像分類。數據被劃分為訓練集、驗證集和測試集。模型採用隨機梯度下降(SGD)優化器與交叉熵損失函數(CrossEntropyLoss)進行訓練。
訓練參數
- 輪數(Epochs): 25
- 批次大小(Batch Size): 32
- 學習率(Learning Rate): 0.001
- 優化器(Optimizer): 帶有0.9動量的SGD
- 損失函數(Loss Function): 交叉熵損失函數(CrossEntropyLoss)
結果
訓練與驗證,F1值
階段 | 訓練損失 | 訓練準確率 | 驗證損失 | 驗證準確率 |
---|---|---|---|---|
第1輪 | 2.1171 | 47.00% | 0.8727 | 75.00% |
第2輪 | 1.0462 | 69.00% | 0.6721 | 78.00% |
... | ... | ... | ... | ... |
第25輪 | 0.4286 | 86.00% | 0.4349 | 86.00% |
模型在Kaggle筆記本中的兩塊T4 GPU上訓練了36分7秒
最佳驗證準確率: 86.54%
precision recall f1-score support
achichuk 0.91 0.98 0.94 41
airan-katyk 0.84 0.93 0.89 46
asip 0.78 0.57 0.66 37
bauyrsak 0.90 0.90 0.90 62
beshbarmak-w-kazy 0.71 0.84 0.77 44
beshbarmak-wo-kazy 0.86 0.69 0.76 61
chak-chak 0.94 0.94 0.94 93
cheburek 0.92 0.88 0.90 94
doner-lavash 0.77 1.00 0.87 20
doner-nan 0.86 0.82 0.84 22
hvorost 0.98 0.86 0.91 141
irimshik 0.96 0.94 0.95 175
kattama-nan 0.84 0.88 0.86 66
kazy-karta 0.72 0.78 0.75 46
kurt 0.86 0.97 0.91 61
kuyrdak 0.92 0.93 0.92 58
kymyz-kymyran 0.93 0.82 0.87 49
lagman-fried 0.86 0.95 0.90 38
lagman-w-soup 0.90 0.80 0.85 75
lagman-wo-soup 0.58 0.86 0.69 22
manty 0.91 0.95 0.93 63
naryn 0.97 0.99 0.98 84
nauryz-kozhe 0.88 0.96 0.92 52
orama 0.68 0.84 0.75 38
plov 0.95 0.98 0.97 101
samsa 0.91 0.93 0.92 106
shashlyk-chicken 0.68 0.65 0.66 62
shashlyk-chicken-v 0.74 0.76 0.75 33
shashlyk-kuskovoi 0.75 0.75 0.75 71
shashlyk-kuskovoi-v 0.53 0.79 0.64 29
shashlyk-minced-meat 0.74 0.69 0.72 42
sheep-head 0.75 0.94 0.83 16
shelpek 0.77 0.86 0.81 64
shorpa 0.95 0.88 0.91 80
soup-plain 0.96 0.94 0.95 71
sushki 0.83 1.00 0.91 43
suzbe 0.89 0.82 0.86 62
taba-nan 0.92 0.80 0.86 136
talkan-zhent 0.86 0.80 0.83 90
tushpara-fried 0.79 0.74 0.76 46
tushpara-w-soup 0.94 0.94 0.94 67
tushpara-wo-soup 0.92 0.87 0.89 91
accuracy 0.87 2698
macro avg 0.84 0.86 0.85 2698
weighted avg 0.88 0.87 0.87 2698
測試
訓練完成後,模型在測試集上進行了測試:
- 測試準確率: 87%
倉庫結構
main.py
— 用於訓練和測試模型的代碼model/
— 以SafeTensors格式保存的模型
💻 使用示例
基礎用法
from transformers import AutoModelForImageClassification
from huggingface_hub import hf_hub_download
from safetensors.torch import load_file
repo_id = "Eraly-ml/centraasia-ResNet-50"
filename = "model.safetensors"
# 加載模型
model_path = hf_hub_download(repo_id=repo_id, filename=filename)
model = AutoModelForImageClassification.from_pretrained(repo_id)
model.load_state_dict(load_file(model_path))
聯繫信息
我的Telegram:@eralyf
Nsfw Image Detection
Apache-2.0
基於ViT架構的NSFW圖像分類模型,通過監督學習在ImageNet-21k數據集上預訓練,並在80,000張圖像上微調,用於區分正常和NSFW內容。
圖像分類
Transformers

N
Falconsai
82.4M
588
Fairface Age Image Detection
Apache-2.0
基於Vision Transformer架構的圖像分類模型,在ImageNet-21k數據集上預訓練,適用於多類別圖像分類任務
圖像分類
Transformers

F
dima806
76.6M
10
Dinov2 Small
Apache-2.0
基於DINOv2方法訓練的小尺寸視覺Transformer模型,通過自監督學習提取圖像特徵
圖像分類
Transformers

D
facebook
5.0M
31
Vit Base Patch16 224
Apache-2.0
基於ImageNet-21k預訓練和ImageNet微調的視覺變換器模型,用於圖像分類任務
圖像分類
V
google
4.8M
775
Vit Base Patch16 224 In21k
Apache-2.0
基於ImageNet-21k數據集預訓練的視覺Transformer模型,用於圖像分類任務。
圖像分類
V
google
2.2M
323
Dinov2 Base
Apache-2.0
基於DINOv2方法訓練的視覺Transformer模型,通過自監督學習提取圖像特徵
圖像分類
Transformers

D
facebook
1.9M
126
Gender Classification
一個基於PyTorch和HuggingPics構建的圖像分類模型,用於識別圖像中的性別
圖像分類
Transformers

G
rizvandwiki
1.8M
48
Vit Base Nsfw Detector
Apache-2.0
基於Vision Transformer (ViT)架構的圖像分類模型,專門用於檢測圖像是否包含NSFW(不安全)內容。
圖像分類
Transformers

V
AdamCodd
1.2M
47
Vit Hybrid Base Bit 384
Apache-2.0
混合視覺變換器(ViT)模型結合了卷積網絡和Transformer架構,用於圖像分類任務,在ImageNet上表現出色。
圖像分類
Transformers

V
google
992.28k
6
Gender Classification 2
這是一個基於PyTorch框架和HuggingPics工具生成的圖像分類模型,專門用於性別分類任務。
圖像分類
Transformers

G
rizvandwiki
906.98k
32
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98