Convnextv2 Tiny.fcmae
ConvNeXt-V2ベースの自己教師あり特徴表現モデルで、全畳み込みマスク自己符号化器フレームワーク(FCMAE)を使用して事前学習されており、画像特徴抽出やファインチューニングタスクに適しています。
画像分類
Transformers

C
timm
2,463
1
Swinv2 Large Patch4 Window12to16 192to256 22kto1k Ft
Apache-2.0
Swin Transformer v2は、階層的特徴マップとローカルウィンドウ自己注意メカニズムにより、効率的な画像分類と密な認識タスクを実現するビジョントランスフォーマーモデルです。
画像分類
Transformers

S
microsoft
812
4
Data2vec Vision Base Ft1k
Apache-2.0
Data2Vec-VisionはBEiTアーキテクチャに基づく自己教師あり学習モデルで、ImageNet-1kデータセットでファインチューニングされており、画像分類タスクに適しています。
画像分類
Transformers

D
facebook
7,520
2
Data2vec Vision Large Ft1k
Apache-2.0
Data2Vec-VisionはBEiTアーキテクチャに基づく自己教師あり学習の視覚モデルで、ImageNet-1kデータセットでファインチューニングされており、画像分類タスクに適しています。
画像分類
Transformers

D
facebook
68
5
Regnet Y 1280 Seer In1k
Apache-2.0
ImageNet-1kで訓練されたRegNet画像分類モデル、自己教師あり事前学習とファインチューニング手法を採用
画像分類
Transformers

R
facebook
18
1
Regnet Y 640 Seer In1k
Apache-2.0
imagenet-1kで訓練されたRegNetモデル、自己教師あり方式で数十億枚のランダムなウェブ画像で事前学習後にファインチューニング
画像分類
Transformers

R
facebook
21
0
Convnext Base 224 22k 1k
Apache-2.0
ConvNeXTは純粋な畳み込みモデルで、視覚Transformerの設計に触発され、ImageNet-22kで事前学習され、ImageNet-1kでファインチューニングされ、従来のTransformerを凌駕する性能を発揮します。
画像分類
Transformers

C
facebook
1,879
4
Vit Large Patch16 384
Apache-2.0
ビジョントランスフォーマー(ViT)は、トランスフォーマーアーキテクチャに基づく画像分類モデルで、最初にImageNet-21kで事前学習され、その後ImageNetでファインチューニングされます。
画像分類
V
google
161.29k
12
Vit Base Patch16 384
Apache-2.0
Vision Transformer(ViT)はTransformerアーキテクチャに基づく画像分類モデルで、最初にImageNet-21kで事前トレーニングされ、その後ImageNetでファインチューニングされます。
画像分類
V
google
30.30k
38
Vit Base Patch16 224
Apache-2.0
ImageNet - 21kで事前学習し、ImageNetでファインチューニングしたビジュアルトランスフォーマーモデルで、画像分類タスクに使用されます。
画像分類
V
google
4.8M
775
Beit Base Patch16 224
Apache-2.0
BEiTは画像トランスフォーマーに基づく視覚モデルで、BERTのような自己教師あり事前学習手法を採用し、最初にImageNet-22kで事前学習とファインチューニングを行い、その後ImageNet-1kでさらにファインチューニングを行います。
画像分類
B
nielsr
28
0
Vit Base Patch32 384
Apache-2.0
Vision Transformer(ViT)はTransformerアーキテクチャに基づく画像分類モデルで、ImageNet-21kとImageNetデータセットで事前学習とファインチューニングを行い、効率的な画像認識能力を実現しています。
画像分類
V
google
24.92k
20
Beit Large Patch16 384
Apache-2.0
BEiTはビジュアルトランスフォーマーに基づく画像分類モデルで、ImageNet-21kで自己教師あり方式で事前学習され、ImageNet-1kでファインチューニングされています。
画像分類
B
microsoft
44
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98