# COCOファインチューニング

My Model
MIT
GITはトランスフォーマーベースの画像からテキストを生成するモデルで、入力画像に基づいて記述的なテキストを生成できます。
画像生成テキスト PyTorch 複数言語対応
M
anoushhka
87
0
Minh
Apache-2.0
YOLOSは視覚Transformer(ViT)ベースの物体検出モデルで、DETR損失で訓練され、COCOデータセットで優れた性能を発揮します。
物体検出
M
minh14122003
14
0
Git Large Coco
MIT
GITはTransformerベースの画像からテキストを生成するモデルで、入力画像に基づいて記述的なテキストを生成できます。
画像生成テキスト Transformers 複数言語対応
G
alexgk
25
0
Detr Resnet 50 Base Coco
Apache-2.0
facebook/detr-resnet-50をベースにCOCOデータセットでファインチューニングした物体検出モデル
物体検出 Transformers
D
amyeroberts
20
1
Vit Swin Base 224 Gpt2 Image Captioning
MIT
VisionEncoderDecoderアーキテクチャに基づく画像キャプション生成モデルで、Swin Transformerを視覚エンコーダー、GPT-2をデコーダーとして使用し、COCO2014データセットでファインチューニングされています
画像生成テキスト Transformers 英語
V
Abdou
321
2
Git Large R Coco
MIT
GITはTransformerベースの生成的画像テキストモデルで、画像から記述的なテキストを生成できます。
画像生成テキスト Transformers 複数言語対応
G
microsoft
86
10
Git Large Coco
MIT
GITはTransformerデコーダーベースの視覚言語モデルで、画像キャプション生成や視覚的質問応答が可能
画像生成テキスト Transformers 複数言語対応
G
microsoft
6,582
103
Git Base Coco
MIT
GITはCLIP画像トークンとテキストトークンに基づくトランスフォーマーデコーダーで、画像キャプション生成や視覚的質問応答などのタスクに使用されます。
画像生成テキスト Transformers 複数言語対応
G
microsoft
5,461
19
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase