S

Sam Vit Large

Xenovaによって開発
ビジョントランスフォーマーアーキテクチャに基づく大規模画像セグメンテーションモデルで、入力点から高品質なオブジェクトマスクを生成可能
ダウンロード数 34
リリース時間 : 5/31/2023

モデル概要

Segment Anything Model (SAM) は汎用的な画像セグメンテーションモデルで、ユーザーが提供する入力点(クリックなど)から自動的に精密なオブジェクトマスクを生成します。このモデルはVision Transformerアーキテクチャを基にしており、強力なゼロショット転移能力を備えています。

モデル特徴

ゼロショットセグメンテーション能力
特定ドメインのトレーニング不要で様々な画像セグメンテーションタスクを処理可能
インタラクティブセグメンテーション
簡単な入力点でモデルを誘導し精密なオブジェクトマスクを生成
高品質出力
精緻なオブジェクト境界と複数の候補マスクを生成可能
Web互換性
ONNX形式の重みを提供し、ブラウザ環境での実行をサポート

モデル能力

インタラクティブ画像セグメンテーション
オブジェクトマスク生成
複数候補結果出力
ゼロショット画像理解

使用事例

画像編集
オブジェクト削除と置換
簡単なクリックでオブジェクトを選択後、精密マスクを生成し写真編集に利用
精密なオブジェクト分離効果を実現
コンピュータビジョン補助アノテーション
半自動データアノテーション
手動アノテーション作業量を大幅に削減
アノテーション効率3-5倍向上
AR/VRアプリケーション
リアルタイムオブジェクトセグメンテーション
拡張現実シーンで前景オブジェクトをリアルタイム分離
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase