Rtdetr V2 R101vd
Apache-2.0
RT-DETRv2はDETRアーキテクチャを改良したリアルタイム物体検出モデルで、選択的マルチスケール特徴抽出や動的データ拡張などの革新点により検出性能を最適化しています。
物体検出
Transformers 英語

R
PekingU
1,892
2
Rtdetr V2 R50vd
Apache-2.0
RT-DETRv2は改良されたリアルタイム物体検出Transformerモデルで、選択的多スケール特徴抽出や動的データ拡張などの戦略により性能を向上させています。
物体検出
Transformers 英語

R
PekingU
15.77k
10
Rtdetr V2 R34vd
Apache-2.0
RT-DETRv2はリアルタイム物体検出Transformerモデルの改良版で、マルチスケール特徴抽出と最適化されたトレーニング戦略により性能を向上させています。
物体検出
Transformers 英語

R
PekingU
886
1
Rtdetr V2 R18vd
Apache-2.0
RT-DETRv2はRT-DETRアーキテクチャを最適化したリアルタイム物体検出モデルで、選択的多スケール特徴抽出とトレーニング戦略の改善により、リアルタイム性能を維持しながら検出精度を向上させています。
物体検出
Transformers 英語

R
PekingU
55.24k
1
Sam2 Hiera Small.fb R896 2pt1
Apache-2.0
timmライブラリに基づくSAM2(HieraDet画像エンコーダーのみ)の重みで、FacebookのHiera小型モデルに由来します。
画像セグメンテーション
Transformers

S
timm
67
0
Switti
Swittiはスケール認識に基づくテキストから画像への生成トランスフォーマーで、高品質な画像合成に特化しています。
画像生成 英語
S
yresearch
410
19
RT DETRv2
RT-DETRv2は改良版リアルタイム検出トランスフォーマーで、プラグアンドプレイ最適化スキームを導入することで柔軟性と実用性を向上させ、トレーニング戦略を最適化してより強力な性能を実現しています。
物体検出
Transformers

R
jadechoghari
1,546
2
MSI Net
MIT
MSI-Netは視覚的顕著性モデルで、眼球運動データに基づいて訓練されたコンテキストエンコーダ-デコーダネットワークにより、自然画像上の人間の注視点を予測します。
画像セグメンテーション
M
alexanderkroner
1,380
2
Hiera Base 224
Hieraは効率的な階層型Transformerアーキテクチャで、MAE学習により空間バイアス特性を最適化し、パラメータ利用効率を大幅に向上
画像分類
Transformers

H
namangarg110
48
0
Some Chives SF
画像セグメンテーションタスク用の深層学習モデルで、画像内の異なるオブジェクトや領域を正確に分割できます。
画像セグメンテーション
Transformers

S
TristanPermentier
14
0
Focalnet Huge Fl4.ms In22k
MIT
FocalNetは焦点変調ネットワークに基づく画像分類モデルで、マイクロソフトチームによってImageNet-22kデータセットで事前学習されました。
画像分類
Transformers

F
timm
103
0
Resnet18
Apache-2.0
ResNet18は深層残差学習に基づいて実装された画像分類モデルで、残差接続により深層ネットワークの学習困難問題を解決しています。
画像分類
Transformers

R
glasses
15
0
Resnet152
Apache-2.0
ResNet152は深度残差学習に基づく画像分類モデルで、残差接続により深度ネットワークの学習における勾配消失問題を解決します。
画像分類
Transformers

R
glasses
14
0
Resnet50
Apache-2.0
ResNet50は深層残差学習に基づく画像分類モデルで、残差接続により深層ニューラルネットワークにおける勾配消失問題を解決しています。
画像分類
Transformers

R
glasses
13
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98