Oneformer Ade20k Dinat Large
初のマルチタスク汎用画像セグメンテーションフレームワーク、単一モデルで意味/インスタンス/パノプティックセグメンテーションタスクをサポート
ダウンロード数 2,275
リリース時間 : 11/15/2022
モデル概要
OneFormerはTransformerベースの汎用画像セグメンテーションモデルで、単一アーキテクチャとトレーニングプロセスにより意味セグメンテーション、インスタンスセグメンテーション、パノプティックセグメンテーションの3つのタスクを実現し、ADE20kデータセットでトレーニングされています。
モデル特徴
マルチタスク統合アーキテクチャ
単一モデルで意味セグメンテーション、インスタンスセグメンテーション、パノプティックセグメンテーションの3つのタスクを同時にサポート
動的タスク適応
ターストークンメカニズムにより、トレーニング時のタスクガイダンスと推論時のタスク動的切り替えを実現
専用モデルを凌駕
複数のセグメンテーションタスクにおいて、専用設計のシングルタスクモデルを上回る性能
モデル能力
意味セグメンテーション
インスタンスセグメンテーション
パノプティックセグメンテーション
シーン解析
物体認識
使用事例
コンピュータビジョン
シーン理解
屋内/屋外シーンのピクセルレベルでの意味解析
150クラスのシーン要素を識別可能(ADE20kデータセットベース)
物体インスタンスセグメンテーション
画像内の独立した物体インスタンスを識別・分割
複雑なシーンにおける重なり合う物体を処理可能
自動運転
道路シーン解析
道路、車両、歩行者などの要素をリアルタイムで分割
自動運転システムの環境認識モジュールに適用可能
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98