Finetuned ViT Model
MIT
DETR-ResNet50アーキテクチャを基に微調整された安全帽検出モデル、産業シーン向けに設計
物体検出
Transformers 英語

F
bnina-ayoub
21
1
Nicpras Finetuned Yolo
これはYOLOv3アーキテクチャをベースにファインチューニングされた物体検出モデルで、特定シナリオ向けに最適化されています
物体検出
Transformers

N
LykaAustria
24
0
Yolov5
YOLOv5は世界で最も人気のある視覚AIモデルで、Ultralyticsによって開発され、数千時間の研究開発経験を統合し、効率的な物体検出能力を提供します。
物体検出
Y
Ultralytics
1,103
1
Ecc Segformerv1
その他
nvidia/mit-b5を微調整した画像セグメンテーションモデルで、ひび割れ検出タスクに特化
画像セグメンテーション
Transformers

E
rishitunu
22
1
Autotrain Solar Panel Object Detection 50559120777
AutoTrainでトレーニングされた多クラス画像分類モデルで、太陽光パネル物体検出タスクに特化
画像分類
Transformers

A
andrewgray11
37
1
Treeclassification
様々な一般的な物体やシーンを識別できる画像分類用の視覚モデルです。
画像分類
Transformers

T
OttoYu
22
0
Vit Base Patch16 224 Finetuned Main Gpu 30e Final
Apache-2.0
GoogleのViTモデルをファインチューニングしたバージョンで、画像分類タスクにおいて99.4%の検証精度を達成
画像分類
Transformers

V
Gokulapriyan
38
0
Yolov5m Forklift
YOLOv5mアーキテクチャに基づくフォークリフト物体検出モデルで、keremberke/フォークリフト物体検出データセットでトレーニングされ、mAP@0.5で0.85を達成しました。
物体検出
TensorBoard

Y
keremberke
118
3
Yolov5s Forklift
YOLOv5sベースのフォークリフト物体検出モデルで、産業現場におけるフォークリフトの識別と位置特定に適しています。
物体検出
TensorBoard

Y
keremberke
96
1
Yolov5n Forklift
YOLOv5nベースの軽量フォークリフト物体検出モデル、フォークリフト認識に最適化
物体検出
TensorBoard

Y
keremberke
103
1
Vit Base Patch16 224 In21k Lcbsi
Apache-2.0
Google Vision Transformer (ViT)アーキテクチャに基づく微調整モデルで、画像分類タスクに適しています
画像分類
Transformers

V
polejowska
33
0
Resnet 18 Feature Extraction
Apache-2.0
microsoft/resnet-18をファインチューニングした画像分類モデルで、画像フォルダデータセットで優れた性能を発揮します。
画像分類
Transformers

R
SiddharthaM
28
0
Convnext Tiny 224 Finetuned
Apache-2.0
このモデルはfacebook/convnext-tiny-224を微調整したバージョンで、主に画像分類タスクに使用され、評価セットで優れた性能を示しています。
画像分類
Transformers

C
ImageIN
15
0
Violation Classification Bantai Vit V80ep
Apache-2.0
GoogleのViTモデルをファインチューニングして得られた違規画像分類モデルで、精度は95.6%
画像分類
Transformers

V
AykeeSalazar
31
0
Vit Base Patch16 224 In21k Bantai Vitv1
Apache-2.0
このモデルはGoogle Vision Transformer (ViT)アーキテクチャに基づく画像分類モデルで、image_folderデータセットでファインチューニング後86.36%の精度を達成しました。
画像分類
Transformers

V
AykeeSalazar
17
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98