Lotus Depth G V2 1 Disparity
Apache-2.0
蓮花モデルシリーズの深度推定モデルで、拡散モデル技術を用いて高品質な密予測を実現
3Dビジョン
L
jingheya
517
2
Metric3d Vit Small
transformers.js ベースの深度推定モデルで、単一画像から深度情報を予測します。
3Dビジョン
Transformers

M
onnx-community
40
2
Dpt Hybrid Midas
Intelが開発したハイブリッド深度推定モデルで、畳み込みニューラルネットワークとTransformerアーキテクチャの利点を組み合わせている
3Dビジョン
Transformers

D
Xenova
23
0
Dpt Dinov2 Giant Kitti
Apache-2.0
DINOv2をバックボーンとして使用したDPTフレームワークで、深度推定タスクに用いられます。
3Dビジョン
Transformers

D
facebook
56
0
Dpt Dinov2 Large Kitti
Apache-2.0
このモデルはDINOv2をバックボーンネットワークとして採用したDPTフレームワークで、深度推定タスクに焦点を当てています。
3Dビジョン
Transformers

D
facebook
26
2
Dpt Dinov2 Large Nyu
Apache-2.0
このモデルはDINOv2バックボーンネットワークを使用して構築されたDPTフレームワークで、深度推定タスクに使用されます。
3Dビジョン
Transformers

D
facebook
80
1
Dpt Dinov2 Base Nyu
Apache-2.0
DINOv2をバックボーンとして使用するDPTモデルで、深度推定タスクに用いられます。
3Dビジョン
Transformers

D
facebook
146
0
Dpt Dinov2 Base Kitti
Apache-2.0
DINOv2をバックボーンとして使用するDPTフレームワーク、深度推定タスク用
3Dビジョン
Transformers

D
facebook
446
2
Dpt Dinov2 Small Kitti
Apache-2.0
DINOv2をバックボーンとして採用したDPTモデルで、深度推定タスクに使用されます。
3Dビジョン
Transformers

D
facebook
710
7
Dpt Dinov2 Small Nyu
Apache-2.0
DINOv2をバックボーンとして使用したDPTモデルで、深度推定タスクに用いられます。
3Dビジョン
Transformers

D
facebook
23
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98