Distill Any Depth Large Hf
MIT
Distill-Any-Depthは新しいSOTA単眼深度推定モデルで、知識蒸留アルゴリズムを用いて訓練されています。
3Dビジョン
Transformers

D
xingyang1
2,322
2
Depth Anything Large Hf
Transformers.jsベースの深度推定モデルONNX版、ウェブアプリケーション向け
3Dビジョン
Transformers

D
Xenova
19
3
Depth Anything Vitl14
Depth Anything は大規模なラベルなしデータを活用して深度推定の可能性を解き放つ強力な深度推定モデルです。
3Dビジョン
Transformers

D
LiheYoung
16.70k
42
Depth Anything Base Hf
Apache-2.0
Depth AnythingはDPTアーキテクチャとDINOv2バックボーンネットワークに基づく深度推定モデルで、約6200万枚の画像でトレーニングされ、ゼロショット深度推定の先進的な性能を実現しています。
3Dビジョン
Transformers

D
LiheYoung
4,101
10
Dpt Swinv2 Large 384
MIT
SwinV2バックボーンネットワークに基づくDPTモデルで、単眼深度推定用に140万枚の画像でトレーニング
3Dビジョン
Transformers

D
Intel
84
0
Dpt Beit Large 384
MIT
BEiTバックボーンネットワークに基づく単眼深度推定モデルで、単一画像から詳細な深度情報を推測可能
3Dビジョン
Transformers

D
Intel
135
0
Dpt Beit Large 512
MIT
BEiT Transformerベースの単眼深度推定モデルで、単一画像から詳細な深度情報を推測可能
3Dビジョン
Transformers

D
Intel
2,794
8
Dpt Dinov2 Giant Kitti
Apache-2.0
DINOv2をバックボーンとして使用したDPTフレームワークで、深度推定タスクに用いられます。
3Dビジョン
Transformers

D
facebook
56
0
Dpt Dinov2 Giant Nyu
Apache-2.0
DINOv2をバックボーンネットワークとして使用するDPTモデルで、単眼深度推定タスクに用いられる
3Dビジョン
Transformers

D
facebook
29
1
Dpt Dinov2 Large Kitti
Apache-2.0
このモデルはDINOv2をバックボーンネットワークとして採用したDPTフレームワークで、深度推定タスクに焦点を当てています。
3Dビジョン
Transformers

D
facebook
26
2
Dpt Dinov2 Large Nyu
Apache-2.0
このモデルはDINOv2バックボーンネットワークを使用して構築されたDPTフレームワークで、深度推定タスクに使用されます。
3Dビジョン
Transformers

D
facebook
80
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98