Sam2 Hiera Tiny.fb R896
Apache-2.0
HieraDet画像エンコーダーを基にしたSAM2モデルで、画像特徴抽出タスクに特化しています。
画像セグメンテーション
Transformers

S
timm
84
0
Sam2 Hiera Large.fb R1024 2pt1
Apache-2.0
HieraDet画像エンコーダーに基づくSAM2モデル、効率的な画像特徴抽出に特化
画像セグメンテーション
Transformers

S
timm
31
0
Sam2 Hiera Large.fb R1024
Apache-2.0
timmライブラリに基づくSAM2モデルで、HieraDet画像エンコーダ部分のみを含み、画像特徴抽出タスクに適しています。
画像セグメンテーション
Transformers

S
timm
747
0
Deeplabv3plus Tu Resnet18
MIT
PyTorchベースのセマンティックセグメンテーションモデル、複数のエンコーダーアーキテクチャをサポート
画像セグメンテーション
Safetensors
D
smp-test-models
213
0
Fpn Tu Resnet18
MIT
PyTorchで実装されたFPN画像セグメンテーションモデルで、複数のエンコーダアーキテクチャをサポートし、意味的セグメンテーションタスクに適しています。
画像セグメンテーション
F
smp-test-models
217
0
Unetplusplus Tu Resnet18
MIT
PyTorchベースのセマンティックセグメンテーションモデルで、改良されたUNet++アーキテクチャを採用し、画像セグメンテーションタスクに適しています。
画像セグメンテーション
U
smp-test-models
215
0
Unet Tu Resnet18
MIT
PyTorchで実装されたUnet画像セグメンテーションモデル、複数のエンコーダアーキテクチャをサポート
画像セグメンテーション
Safetensors
U
smp-test-models
219
0
Leyolo Medium
LeYOLOはYOLOアーキテクチャに基づく物体検出モデルで、nano、small、medium、largeなど複数のサイズバージョンを提供し、リアルタイム物体検出タスクに適しています。
物体検出
Transformers

L
lhollard
23
1
Rtdetr R101vd Coco O365
Apache-2.0
初のリアルタイムエンドツーエンド物体検出器、Transformerアーキテクチャに基づき、非極大抑制の必要性を排除、速度と精度でYOLOシリーズを凌駕
物体検出
Transformers 英語

R
PekingU
106.81k
7
Rtdetr R101vd
Apache-2.0
RT-DETRは初のリアルタイムエンドツーエンド物体検出器で、ハイブリッドエンコーダとクエリ選択メカニズムにより効率的な検出を実現し、NMS後処理が不要です。
物体検出
Transformers 英語

R
PekingU
1,369
4
Rtdetr R50vd
Apache-2.0
RT-DETRは初のリアルタイムエンドツーエンド物体検出器で、効率的なハイブリッドエンコーダとクエリ選択メカニズムによりYOLOシリーズを超える速度と精度のバランスを実現
物体検出
Transformers 英語

R
PekingU
29.40k
27
Rtdetr R18vd
Apache-2.0
RT-DETRは初のリアルタイムエンドツーエンド物体検出Transformerモデルで、効率的なハイブリッドエンコーダとクエリ選択メカニズムによりNMS不要の効率的な検出を実現
物体検出
Transformers 英語

R
PekingU
11.98k
4
Rtdetr R50vd Coco O365
Apache-2.0
RT-DETRは初のリアルタイムエンドツーエンド物体検出器で、効率的なハイブリッドエンコーダーと不確実性最小化クエリ選択メカニズムにより、COCOデータセットで53.1% AP、108 FPSの性能を達成しました。
物体検出
Transformers 英語

R
PekingU
111.17k
11
Rtdetr R18vd Coco O365
Apache-2.0
初のリアルタイムエンドツーエンド物体検出器、ハイブリッドエンコーダとクエリ選択メカニズムによりNMS不要の効率的な検出を実現
物体検出
Transformers 英語

R
PekingU
952
4
Rtdetr R34vd
Apache-2.0
RT-DETRは初のリアルタイムエンドツーエンド物体検出Transformerモデルで、効率的なハイブリッドエンコーダとクエリ選択メカニズムにより高速高精度検出を実現
物体検出
Transformers 英語

R
PekingU
512
3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98