🚀 Virtus模型
Virtus是一個經過微調的視覺變換器(ViT)模型,用於二分類圖像識別。它專門針對區分真實圖像和深度偽造圖像進行了訓練,在包含超過190,000張圖像的平衡數據集上,實現了約99.2%的準確率。
🚀 快速開始
from transformers import AutoFeatureExtractor, AutoModelForImageClassification
from PIL import Image
import torch
model = AutoModelForImageClassification.from_pretrained("agasta/virtus")
extractor = AutoFeatureExtractor.from_pretrained("agasta/virtus")
image = Image.open("path_to_image.jpg")
inputs = extractor(images=image, return_tensors="pt")
outputs = model(**inputs)
predicted_class = outputs.logits.argmax(-1).item()
print(model.config.id2label[predicted_class])
✨ 主要特性
- 基於
facebook/deit-base-distilled-patch16-224
模型進行微調,適用於二分類圖像識別任務。
- 在大規模真實和虛假面部圖像數據集上進行訓練,訓練過程中採用了類別平衡、數據增強等技術。
- 可用於預測輸入圖像是真實圖像還是深度偽造圖像,可部署在圖像分析流程中,或集成到需要媒體真實性檢測的應用程序中。
📚 詳細文檔
模型詳情
模型描述
Virtus基於facebook/deit-base-distilled-patch16-224
模型,在一個包含大量真實和虛假面部圖像的數據集上進行了二分類任務的微調。訓練過程包括類別平衡、數據增強,並使用準確率和F1分數進行評估。
模型來源
用途
直接使用
該模型可用於預測輸入圖像是真實圖像還是深度偽造圖像,可部署在圖像分析流程中,或集成到需要媒體真實性檢測的應用程序中。
下游使用
Virtus可用於更廣泛的深度偽造檢測系統、用於檢測合成媒體的教育工具,或在線平臺的預篩選系統。
適用範圍外的使用
- 檢測視頻或音頻中的深度偽造內容。
- 真實/虛假二分類領域之外的通用目標分類任務。
偏差、風險和侷限性
數據集雖然是平衡的,但在面部特徵、光照條件或人口統計方面可能仍然存在偏差。該模型對非標準輸入尺寸或嚴重遮擋的面部也不夠魯棒。
⚠️ 重要提示
- 僅在與訓練集性質相似的面部圖像上使用。
- 在沒有人工驗證的情況下,不要用於關鍵或高風險決策。
- 定期使用更新的數據重新評估性能。
訓練詳情
訓練數據
數據集包含190,335張自行收集的真實和深度偽造面部圖像,使用RandomOverSampler對兩個類別進行平衡。數據按60%訓練和40%測試進行劃分,並保持類別分層。
訓練過程
預處理
- 圖像調整為224x224大小。
- 數據增強:隨機旋轉、銳度調整、歸一化。
訓練超參數
- 訓練輪數:2
- 學習率:1e-6
- 訓練批次大小:32
- 評估批次大小:8
- 權重衰減:0.02
- 優化器:AdamW(通過Trainer API)
- 混合精度:未使用
評估
測試數據
使用相同的數據集,按60:40的比例分層劃分進行評估。
評估指標
評估結果
- 準確率:99.20%
- F1分數(宏平均):0.9920
環境影響
- 硬件類型:NVIDIA Tesla V100(Kaggle Notebook GPU)
- 使用時長:約2.3小時
- 雲服務提供商:Kaggle
- 計算區域:未知
- 碳排放:可通過MLCO2計算器進行估算
技術規格
模型架構和目標
該模型是一個經過蒸餾的視覺變換器(DeiT),專為圖像分類設計,目標是將圖像分類為真實或虛假。
計算基礎設施
- 硬件:1個NVIDIA Tesla V100 GPU
- 軟件:PyTorch、Hugging Face Transformers、Datasets、Accelerate
引用
BibTeX:
@misc{virtus2025,
title={Virtus: Deepfake Detection using Vision Transformers},
author={Agasta},
year={2025},
howpublished={\url{https://huggingface.co/agasta/virtus}},
}
APA:
Agasta. (2025). Virtus: Deepfake Detection using Vision Transformers. Hugging Face. https://huggingface.co/agasta/virtus
模型卡片聯繫方式
如有疑問或反饋,請通過GitHub聯繫,或在模型倉庫中提出問題,也可發郵件至rupam.golui@proton.me。
📄 許可證
本模型採用MIT許可證。