Minh
Apache-2.0
YOLOSは視覚Transformer(ViT)ベースの物体検出モデルで、DETR損失で訓練され、COCOデータセットで優れた性能を発揮します。
物体検出
M
minh14122003
14
0
Dab Detr Resnet 50
Apache-2.0
DAB-DETRは改良されたDETR物体検出モデルで、動的アンカーボックス検索メカニズムによりトレーニング収束速度と検出精度を大幅に向上
物体検出
Transformers 英語

D
IDEA-Research
1,590
2
Rtdetr R50vd
Apache-2.0
RT-DETRは初のリアルタイムエンドツーエンド物体検出器で、効率的なハイブリッドエンコーダとクエリ選択メカニズムによりYOLOシリーズを超える速度と精度のバランスを実現
物体検出
Transformers 英語

R
PekingU
29.40k
27
Rtdetr R50vd Coco O365
Apache-2.0
RT-DETRは初のリアルタイムエンドツーエンド物体検出器で、効率的なハイブリッドエンコーダーと不確実性最小化クエリ選択メカニズムにより、COCOデータセットで53.1% AP、108 FPSの性能を達成しました。
物体検出
Transformers 英語

R
PekingU
111.17k
11
Rtdetr R18vd Coco O365
Apache-2.0
初のリアルタイムエンドツーエンド物体検出器、ハイブリッドエンコーダとクエリ選択メカニズムによりNMS不要の効率的な検出を実現
物体検出
Transformers 英語

R
PekingU
952
4
Conditional Detr Resnet 101 Dc5
Apache-2.0
条件付き検出トランスフォーマー(DETR)モデル、条件付きクロスアテンション機構によりトレーニング収束を加速、物体検出タスクに適応
物体検出
Transformers

C
Omnifact
59
2
Rtdetr R34vd
Apache-2.0
RT-DETRは初のリアルタイムエンドツーエンド物体検出Transformerモデルで、効率的なハイブリッドエンコーダとクエリ選択メカニズムにより高速高精度検出を実現
物体検出
Transformers 英語

R
PekingU
512
3
Detr Resnet 50 Finetuned Road Traffic
Apache-2.0
DETRアーキテクチャに基づく交通シーン向け物体検出モデル、facebook/detr-resnet-50を基にファインチューニング
物体検出
Transformers

D
josephlyr
30
1
Detr Resnet 50 Base Coco
Apache-2.0
facebook/detr-resnet-50をベースにCOCOデータセットでファインチューニングした物体検出モデル
物体検出
Transformers

D
amyeroberts
20
1
Detr Resnet 101
Transformerアーキテクチャに基づくエンドツーエンドの物体検出モデル、ResNet-101特徴抽出器を組み合わせ
物体検出
Transformers

D
Xenova
216
2
Yolos Base
Apache-2.0
YOLOSは視覚Transformer(ViT)ベースの物体検出モデルで、DETR損失で訓練され、COCOデータセットで42 APの性能を達成しています。
物体検出
Transformers

Y
hustvl
2,638
25
Detr Resnet 50 Panoptic
Apache-2.0
DETRはTransformerアーキテクチャに基づくエンドツーエンド物体検出モデルで、ResNet-50をバックボーンとして使用し、COCOデータセットで訓練され、物体検出とパノプティックセグメンテーションタスクをサポートします。
画像セグメンテーション
Transformers

D
facebook
9,586
137
Detr Beyond Words
MIT
facebook/detr - resnet - 50モデルをベースに、Beyond Wordsデータセットで微調整した物体検出モデル
物体検出
Transformers

D
davanstrien
17
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98