Lotus Depth D V2 0 Disparity
Lotusは拡散モデルに基づく視覚基盤モデルで、高品質な高密度予測タスク、特に深度推定に特化しています。前バージョンと比較し、視差空間(逆深度)でのトレーニングを採用し、より優れた性能とより安定したビデオ深度推定を実現しました。
ダウンロード数 592
リリース時間 : 11/13/2024
モデル概要
Lotusは拡散モデルに基づく視覚基盤モデルで、主に深度推定タスクに使用されます。視差空間(逆深度)でのトレーニングを採用しており、前バージョンと比較してより優れた性能とより安定したビデオ深度推定能力を備えています。
モデル特徴
視差空間トレーニング
視差空間(逆深度)でのトレーニングを採用し、前バージョンと比較してより優れた性能とより安定したビデオ深度推定を実現しました。
高品質高密度予測
高品質な高密度予測タスクに特化し、正確な深度推定結果を生成できます。
ビデオ深度推定
ビデオ深度推定の安定性を特に最適化し、連続フレームの深度予測に適しています。
モデル能力
深度推定
ビデオ深度推定
高密度予測
使用事例
コンピュータビジョン
3Dシーン再構築
深度推定結果を利用して3Dシーンを再構築し、仮想現実や拡張現実などのアプリケーションに適用できます。
高品質な深度マップは正確な3Dモデルの生成に使用できます。
自動運転
自動運転システムに正確な深度情報を提供し、車両が周囲環境を感知するのを支援します。
安定したビデオ深度推定は自動運転システムの安全性を向上させます。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98