🚀 Swin-DistilBERTimbau for ブラジルポルトガル語の画像キャプショニング
Swin-DistilBERTimbauモデルは、解像度224x224、最大シーケンス長512トークンで、Flickr30K Portuguese(Google Translator APIを使用した翻訳版)の画像キャプショニングに対して訓練されています。
🚀 クイックスタート
Swin-DistilBERTimbauは、Swin Transformerのチェックポイントをエンコーダーとして、DistilBERTimbauのチェックポイントをデコーダーとして利用するVision Encoder Decoderの一種です。エンコーダーのチェックポイントは、解像度224x224のImageNet-1kで事前学習されたSwin Trasnformerバージョンから取得されています。
訓練と評価に使用されたコードは、こちらで入手できます: https://github.com/laicsiifes/ved-transformer-caption-ptbr 。この研究では、Swin-DistilBERTimbauは、Swin-GPorTuguese-2と一緒に訓練されています。
他の評価されたモデル、DeiT-BERTimbau、DeiT-DistilBERTimbau、DeiT-GPorTuguese-2、Swin-BERTimbau、ViT-BERTimbau、ViT-DistilBERTimbau、ViT-GPorTuguese-2は、Swin-DistilBERTimbauとSwin-GPorTuguese-2ほどの性能を発揮しませんでした。
✨ 主な機能
- ブラジルポルトガル語の画像キャプショニングに特化したモデル。
- Vision Encoder Decoderアーキテクチャを採用。
- 事前学習されたSwin TransformerとDistilBERTimbauのチェックポイントを利用。
📦 インストール
本モデルはtransformers
ライブラリを使用しています。必要な依存関係をインストールすることで利用可能です。
💻 使用例
基本的な使用法
import requests
from PIL import Image
from transformers import AutoTokenizer, AutoImageProcessor, VisionEncoderDecoderModel
model = VisionEncoderDecoderModel.from_pretrained("laicsiifes/swin-distilbertimbau")
tokenizer = AutoTokenizer.from_pretrained("laicsiifes/swin-distilbertimbau")
image_processor = AutoImageProcessor.from_pretrained("laicsiifes/swin-distilbertimbau")
url = "http://images.cocodataset.org/val2014/COCO_val2014_000000458153.jpg"
image = Image.open(requests.get(url, stream=True).raw)
pixel_values = image_processor(image, return_tensors="pt").pixel_values
generated_ids = model.generate(pixel_values)
generated_text = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
高度な使用法
import matplotlib.pyplot as plt
plt.imshow(image)
plt.axis("off")
plt.title(generated_text)
plt.show()

📚 ドキュメント
評価結果
評価指標であるCIDEr-D、BLEU@4、ROUGE-L、METEOR、BERTScore(BERTimbauを使用)は、それぞれC、B@4、RL、M、BSと略されます。
モデル |
データセット |
評価分割 |
C |
B@4 |
RL |
M |
BS |
Swin-DistilBERTimbau |
Flickr30K Portuguese |
test |
66.73 |
24.65 |
39.98 |
44.71 |
72.30 |
Swin-GPorTuguese-2 |
Flickr30K Portuguese |
test |
64.71 |
23.15 |
39.39 |
44.36 |
71.70 |
BibTeX引用
@inproceedings{bromonschenkel2024comparative,
title={A Comparative Evaluation of Transformer-Based Vision Encoder-Decoder Models for Brazilian Portuguese Image Captioning},
author={Bromonschenkel, Gabriel and Oliveira, Hil{\'a}rio and Paix{\~a}o, Thiago M},
booktitle={2024 37th SIBGRAPI Conference on Graphics, Patterns and Images (SIBGRAPI)},
pages={1--6},
year={2024},
organization={IEEE}
}
📄 ライセンス
本モデルはMITライセンスの下で提供されています。