Hiera Abswin Base Mim
Apache-2.0
絶対ウィンドウ位置埋め込み戦略を採用したHiera画像エンコーダー、マスク画像モデリング(MIM)による事前学習を経ており、汎用特徴抽出器または下流タスクのバックボーンネットワークとして使用可能。
画像分類
H
birder-project
72
0
Hiera Large 224 Hf
Hieraは階層型視覚Transformerモデルで、高速で強力かつシンプルな特性を持ち、画像・動画タスクにおいて既存技術を凌駕しつつ高速に動作します。
画像分類
Transformers 英語

H
facebook
532
1
Hiera Base 224 Hf
Hieraは階層型視覚Transformerモデルで、高速・強力・簡潔な特徴を持ち、画像・動画タスクで優れた性能を発揮します。
画像分類
Transformers 英語

H
facebook
163
0
Hiera Tiny 224 Hf
Hieraは階層型視覚Transformerモデルで、高速・強力かつ非常に簡潔な特徴を持ち、幅広い画像・動画タスクにおいて現行の最先端技術を凌駕するとともに、大幅な速度向上を実現しています。
画像分類
Transformers 英語

H
facebook
8,208
0
Swinv2 Base Patch4 Window12to24 192to384 22kto1k Ft
Apache-2.0
Swin Transformer v2は、階層的特徴マップと局所ウィンドウ自己注意メカニズムにより、効率的な画像分類と密な認識タスクを実現する視覚Transformerモデルです。
画像分類
Transformers

S
microsoft
1,824
0
Swinv2 Base Patch4 Window12to16 192to256 22kto1k Ft
Apache-2.0
Swin Transformer v2は、階層的特徴マップと局所ウィンドウ自己注意機構により効率的な画像分類を実現する視覚Transformerモデルです。
画像分類
Transformers

S
microsoft
459
1
Swinv2 Base Patch4 Window12 192 22k
Apache-2.0
Swin Transformer v2は、階層的特徴マップと局所ウィンドウ自己注意メカニズムにより効率的な画像処理を実現する視覚Transformerモデルです。
画像分類
Transformers

S
microsoft
8,603
3
Swinv2 Base Patch4 Window16 256
Apache-2.0
Swin Transformer v2は、階層的特徴マップと局所ウィンドウ自己注意メカニズムにより、効率的な画像分類と密な認識タスクを実現する視覚Transformerモデルです。
画像分類
Transformers

S
microsoft
1,853
3
Swinv2 Base Patch4 Window8 256
Apache-2.0
Swin Transformer v2は、階層的特徴マップと局所ウィンドウ自己注意機構により効率的な画像分類と密な認識タスクを実現する視覚Transformerモデルです。
画像分類
Transformers

S
microsoft
16.61k
7
Swinv2 Small Patch4 Window16 256
Apache-2.0
Swin Transformer v2 は階層的特徴マップと局所ウィンドウ自己注意機構により効率的な画像処理を実現する視覚Transformerモデルです。
画像分類
Transformers

S
microsoft
315
1
Swinv2 Tiny Patch4 Window8 256
Apache-2.0
Swin Transformer v2はImageNet-1kで事前学習された視覚Transformerモデルで、階層的特徴マップと局所ウィンドウ自己注意機構を採用し、線形計算複雑性を持ちます。
画像分類
Transformers

S
microsoft
25.04k
10
Swin Base Patch4 Window12 384 In22k
Apache-2.0
Swin Transformerはシフトウィンドウに基づく階層型視覚Transformerモデルで、画像分類タスク向けに設計されています。
画像分類
Transformers

S
microsoft
2,431
1
Swin Base Patch4 Window12 384
Apache-2.0
Swin Transformerは、シフトウィンドウに基づく階層型視覚Transformerで、画像分類タスク向けに設計されており、計算複雑度が入力画像サイズに対して線形関係にあります。
画像分類
Transformers

S
microsoft
1,421
4
Swin Small Patch4 Window7 224
Apache-2.0
Swin Transformerは階層型ウィンドウに基づく視覚Transformerモデルで、画像分類タスク向けに設計されており、計算複雑度は入力画像サイズに対して線形関係にあります。
画像分類
Transformers

S
microsoft
2,028
1
Swin Large Patch4 Window7 224 In22k
Apache-2.0
Swin Transformerは移動ウィンドウに基づく階層型視覚Transformerで、ImageNet-21kデータセットで事前学習されており、画像分類タスクに適しています。
画像分類
Transformers

S
microsoft
387
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98