Lotus Depth G V2 1 Disparity
Apache-2.0
蓮花モデルシリーズの深度推定モデルで、拡散モデル技術を用いて高品質な密予測を実現
3Dビジョン
L
jingheya
517
2
Dpt Swinv2 Base 384
MIT
DPT (密な予測トランスフォーマー) モデルは140万枚の画像でトレーニングされ、単眼深度推定に使用されます。このモデルはSwinv2をバックボーンネットワークとして使用し、高精度な深度予測タスクに適しています。
3Dビジョン
Transformers

D
Intel
182
0
Dpt Dinov2 Large Kitti
Apache-2.0
このモデルはDINOv2をバックボーンネットワークとして採用したDPTフレームワークで、深度推定タスクに焦点を当てています。
3Dビジョン
Transformers

D
facebook
26
2
Dpt Dinov2 Base Nyu
Apache-2.0
DINOv2をバックボーンとして使用するDPTモデルで、深度推定タスクに用いられます。
3Dビジョン
Transformers

D
facebook
146
0
Dpt Dinov2 Base Kitti
Apache-2.0
DINOv2をバックボーンとして使用するDPTフレームワーク、深度推定タスク用
3Dビジョン
Transformers

D
facebook
446
2
Dpt Dinov2 Small Kitti
Apache-2.0
DINOv2をバックボーンとして採用したDPTモデルで、深度推定タスクに使用されます。
3Dビジョン
Transformers

D
facebook
710
7
Dpt Dinov2 Small Nyu
Apache-2.0
DINOv2をバックボーンとして使用したDPTモデルで、深度推定タスクに用いられます。
3Dビジョン
Transformers

D
facebook
23
2
Pvt Tiny 224
Apache-2.0
ピラミッド視覚トランスフォーマー(PVT)は、トランスフォーマーアーキテクチャに基づく視覚モデルで、画像分類タスク向けに設計されています。
画像分類
Transformers

P
Xrenya
25
0
Dpt Hybrid Midas
Apache-2.0
ビジョントランスフォーマー(ViT)に基づく単眼深度推定モデル、140万枚の画像でトレーニング
3Dビジョン
Transformers

D
Intel
224.05k
94
Dpt Large Ade
Apache-2.0
これはADE20kデータセットでファインチューニングされた密な予測トランスフォーマー(DPT)モデルで、セマンティックセグメンテーションタスクに使用されます。
画像セグメンテーション
Transformers

D
Intel
3,497
8
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98