Swin Tiny Finetuned Dogfood
Apache-2.0
Swin Transformer Tinyアーキテクチャをファインチューニングしたドッグフード画像分類モデル、テストセットで98.8%の精度を達成
画像分類
Transformers

S
sasha
15
1
Vit Finetuned Vanilla Cifar10 0
Apache-2.0
Vision Transformer (ViT)アーキテクチャを基にCIFAR-10データセットでファインチューニングされた画像分類モデル、精度99.2%達成
画像分類
Transformers

V
02shanky
68
1
PE Core G14 448
Apache-2.0
知覚エンコーダ(PE)は、シンプルな視覚-言語学習によってトレーニングされた最先端の画像・動画理解エンコーダで、様々な視覚タスクにおいて最先端の性能を達成しています。
テキスト生成画像
P
facebook
22.83k
14
Mambavision L3 256 21K
その他
MambaとTransformerの利点を組み合わせた初のコンピュータビジョンハイブリッドモデルで、Mambaの式を再構築して視覚特徴モデリングの効率を向上させ、Mambaアーキテクチャの最後の数層に自己注意モジュールを導入して長距離空間依存関係のモデリング能力を強化しました。
画像分類
Transformers

M
nvidia
510
7
Mambavision B 21K
その他
マンバ(Mamba)とTransformerの利点を融合した初のコンピュータビジョンハイブリッドモデルで、マンバ式を再構築して視覚特徴モデリングの効率を向上させ、マンバアーキテクチャの末端に自己注意モジュールを導入して長距離空間依存関係のモデリング能力を強化しました。
画像分類
Transformers

M
nvidia
1,395
4
Centraasia ResNet 50
MIT
ResNet-50アーキテクチャに基づく事前学習モデルで、中央アジアの食品画像分類タスク向けに特別にファインチューニングされており、34種類の中央アジア料理の分類をサポートします。
画像分類
Transformers 英語

C
Eraly-ml
86
1
Smart Tv Hand Gestures Image Detection
Apache-2.0
Vision Transformerアーキテクチャに基づくスマートTVジェスチャー認識モデルで、9種類の一般的なジェスチャーを正確に分類できます。
画像分類
Transformers

S
dima806
65
1
Vit Base Beans
Apache-2.0
Google Vision Transformer (ViT)アーキテクチャに基づく画像分類モデルで、beansデータセットに特化してファインチューニングされています
画像分類
Transformers

V
HieuVo
49
1
Ai Image Detector Dev Deploy
これは自動トレーニングに基づく画像分類モデルで、さまざまな一般的な物体カテゴリを認識できます
画像分類
TensorBoard

A
haywoodsloan
59
1
Cat Dog Classifier With Small Datasest
Apache-2.0
microsoft/resnet-50をファインチューニングした猫犬画像分類モデルで、評価セットで95%の精度を達成
画像分類
Transformers

C
MoGHenry
33
1
Cat Dog Classifier
Apache-2.0
ResNet-50アーキテクチャをファインチューニングした画像分類モデルで、猫と犬の画像を区別するために特別に設計されており、精度は96.88%です。
画像分類
Transformers

C
MoGHenry
58
1
Tomato Leaf Disease Classification Resnet50
Apache-2.0
ResNet-50をファインチューニングしたトマト葉病画像分類モデルで、精度は99.56%
画像分類
Transformers

T
wellCh4n
109
1
Tomato Leaf Disease Classification Vit
Apache-2.0
Google Vision Transformer (ViT)アーキテクチャを基にファインチューニングしたトマト葉病害分類モデルで、評価セットで99.67%の精度を達成
画像分類
Transformers

T
wellCh4n
55
1
Nsfw Image Detection 384
Apache-2.0
軽量NSFW画像検出モデル、精度98.56%、サイズは同類モデルの1/18-1/20
画像分類
N
Marqo
158.92k
21
Ai Image Detector Deploy
これはAutoTrainで訓練されたAI画像分類モデルで、様々な画像内容を正確に識別・分類できます。
画像分類
Transformers

A
haywoodsloan
6,077
4
Aimv2 3B Patch14 448
AIMv2はマルチモーダル自己回帰目標で事前学習された視覚モデルシリーズで、複数の視覚理解ベンチマークで優れた性能を発揮します。
画像分類
A
apple
161
12
Aimv2 1B Patch14 448
AIMv2はマルチモーダル自己回帰目標で事前学習された視覚モデルシリーズで、複数の視覚理解ベンチマークで優れた性能を発揮します。
画像分類
A
apple
71
0
Aimv2 Huge Patch14 448
AIMv2はマルチモーダル自己回帰目標で事前学習された視覚モデルシリーズで、複数のベンチマークテストで優れた性能を発揮します。
画像分類
A
apple
1,672
3
Aimv2 Large Patch14 448
AIMv2はマルチモーダル自己回帰目標事前学習に基づく視覚モデルシリーズで、複数のベンチマークテストで優れた性能を発揮
画像分類
A
apple
2,210
5
Aimv2 3B Patch14 336
AIMv2はマルチモーダル自己回帰目標で事前学習された視覚モデルシリーズで、複数のマルチモーダル理解ベンチマークで優れた性能を発揮します。
画像分類
A
apple
23
2
Aimv2 1B Patch14 336
AIMv2はマルチモーダル自己回帰目標で事前学習された視覚モデルシリーズで、複数のマルチモーダル理解ベンチマークで優れた性能を発揮します。
画像分類
A
apple
52
0
Aimv2 Huge Patch14 336
AIMv2はマルチモーダル自己回帰目標で事前学習された視覚モデルシリーズで、複数の視覚理解ベンチマークテストで優れた性能を発揮します。
画像分類
A
apple
188
0
Aimv2 Large Patch14 336
AIMv2はマルチモーダル自己回帰目標事前学習に基づく視覚モデルシリーズで、多くの視覚タスクで優れた性能を発揮します。
画像分類
A
apple
6,177
3
Aimv2 3B Patch14 224
AIMv2はマルチモーダル自己回帰目標で事前学習された視覚モデルシリーズで、多くのベンチマークテストで優れた性能を発揮
画像分類
A
apple
57
3
Aimv2 1B Patch14 224
AIMv2はマルチモーダル自己回帰目標で事前学習された視覚モデルシリーズで、多くの視覚タスクで優れた性能を発揮します。
画像分類
A
apple
299
7
Aimv2 Huge Patch14 224
AIMv2はマルチモーダル自己回帰目標で事前学習された視覚モデルシリーズで、多くのベンチマークテストで優れた性能を発揮します。
画像分類
A
apple
54
9
Aimv2 Large Patch14 224
AIMv2はマルチモーダル自己回帰目標で事前学習された視覚モデルシリーズで、多くの視覚タスクで優れた性能を発揮します。
画像分類
A
apple
759
50
Vit Batik
MIT
これはVision Transformer (ViT)とBEiTアーキテクチャに基づく画像分類モデルで、インドネシアのバティック模様を識別するために特別に設計されています。
画像分類 その他
V
dewanakl
60
1
Mambavision L 1K
その他
MambaとTransformerの利点を初めて組み合わせたコンピュータビジョンの混合モデルで、Mambaの式を再設計することでビジュアル特徴のモデリング能力を強化しました。
画像分類
Transformers

M
nvidia
1,542
5
UL Base Classification
Apache-2.0
このモデルはGoogleのViT-base-patch16-224を画像フォルダデータセットでファインチューニングした画像分類モデルで、検証セットの精度は89.21%です。
画像分類
Transformers

U
sharmajai901
2,432
1
AI VS REAL IMAGE DETECTION
Apache-2.0
Google Vision Transformer (ViT)アーキテクチャを微調整した画像分類モデルで、AI生成画像と真正画像を区別するために使用されます
画像分類
Transformers

A
Hemg
259
2
Cat Vs Dog Classification
Apache-2.0
GoogleのViTモデルをcats_vs_dogsデータセットでファインチューニングした画像分類モデルで、猫と犬の画像を区別するために使用されます。
画像分類
Transformers

C
kazuma313
42
1
Carmodel
Apache-2.0
google/vit-base-patch16-224をファインチューニングした視覚モデルで、評価セットでF1スコア0.9931を達成
画像分類
Transformers

C
TechRoC123
24
1
Vitforimageclassification
Apache-2.0
このモデルはgoogle/vit-base-patch16-224-in21kをCIFAR10データセットでファインチューニングした画像分類モデルで、精度は96.78%です。
画像分類
Transformers

V
Andron00e
43
2
Vit Base Patch16 224 In21k Finetuned Moderation
Apache-2.0
Google Vision Transformerアーキテクチャに基づく画像分類モデルで、コンテンツモデレーションタスク向けにファインチューニングされ、テストセットで90.43%の精度を達成
画像分類
Transformers

V
mbehbooei
752
3
Dogs Breed Classification Using Vision Transformers
Openrail
これは画像分類タスク用のモデルで、英語をサポートし、オープンライセンスを採用しています。
画像分類
Transformers 英語

D
AmitMidday
27
1
Swin Tiny Patch4 Window7 224 Cifar10
Apache-2.0
Swin Transformerアーキテクチャに基づく微小モデル、CIFAR-10画像分類タスク向けにファインチューニング
画像分類
Transformers

S
Skafu
94
1
Clasificacion Vit Model Manuel Chaves
Apache-2.0
google/vit-base-patch16-224-in21kをファインチューニングした画像分類モデルで、豆類データセットで97.74%の精度を達成
画像分類
Transformers

C
machves
15
0
Deit Tiny Patch16 224 Finetuned Main Gpu 20e Final
Apache-2.0
DeiT-tinyアーキテクチャに基づく軽量画像分類モデルで、カスタム画像データセットで微調整後98.56%の検証精度を達成
画像分類
Transformers

D
Gokulapriyan
15
0
Vitezoa
これはHuggingPicsによって生成された画像分類モデルで、動物、鳥類、国旗など様々な画像を分類できます。
画像分類
Transformers

V
ezoa
15
0
- 1
- 2
- 3
- 4
- 5
- 6
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98