Safety Utcustom Train SF RGBD B5
nvidia/mit-b5をファインチューニングした安全視覚セグメンテーションモデルで、RGBD画像内の安全区域と危険区域の識別に特化
ダウンロード数 17
リリース時間 : 2/6/2024
モデル概要
このモデルはMIT-B5アーキテクチャをベースに改良したバージョンで、RGBD画像データの処理に特化しており、画像内の安全区域と危険区域を効果的に識別できます。安全カテゴリの識別精度は55.78%、危険カテゴリの識別精度は99.47%に達します。
モデル特徴
高精度危険区域検出
危険区域識別で99.47%の精度と98.14%のIoUを達成
RGBD画像処理能力
深度情報を含むRGBD画像データの処理に最適化
バランス性能
全体精度(98.18%)とカテゴリバランス(安全カテゴリ47.45% IoU)の良好なバランスを実現
モデル能力
画像セグメンテーション
安全区域識別
危険区域検出
RGBD画像処理
使用事例
産業安全監視
工場危険区域リアルタイム監視
工場環境内の危険区域を監視し、人員接近を即時警告
99%以上の危険区域を正確に識別可能
インテリジェントセキュリティシステム
公共場所安全監視
公共場所内の潜在的な危険区域を識別
安全区域と危険区域のバランス良い識別
🚀 safety-utcustom-train-SF-RGBD-b5
このモデルは、nvidia/mit-b5 を sam1120/safety-utcustom-TRAIN データセットでファインチューニングしたバージョンです。評価セットでは、以下の結果を達成しています。
- 損失: 0.0867
- 平均IoU: 0.7280
- 平均精度: 0.7762
- 全体精度: 0.9818
- 未ラベル精度: nan
- 安全精度: 0.5578
- 不安全精度: 0.9947
- 未ラベルIoU: nan
- 安全IoU: 0.4745
- 不安全IoU: 0.9814
🚀 クイックスタート
このモデルは、画像セグメンテーションタスクに最適化されたファインチューニング済みモデルです。評価セットでの高い精度を持ち、特定のデータセットに基づいてトレーニングされています。
🔧 技術詳細
トレーニングハイパーパラメータ
トレーニング中には、以下のハイパーパラメータが使用されました。
- 学習率: 4e-06
- トレーニングバッチサイズ: 15
- 評価バッチサイズ: 15
- シード: 42
- オプティマイザ: Adam (betas=(0.9,0.999), epsilon=1e-08)
- 学習率スケジューラタイプ: 線形
- 学習率スケジューラウォームアップ比率: 0.05
- エポック数: 120
トレーニング結果
トレーニング損失 | エポック | ステップ | 安全精度 | 未ラベル精度 | 不安全精度 | 安全IoU | 未ラベルIoU | 不安全IoU | 検証損失 | 平均精度 | 平均IoU | 全体精度 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
0.789 | 0.91 | 10 | 0.0203 | nan | 0.8957 | 0.0095 | 0.0 | 0.8722 | 0.9555 | 0.4580 | 0.2939 | 0.8698 |
0.7579 | 1.82 | 20 | 0.0117 | nan | 0.9614 | 0.0069 | 0.0 | 0.9338 | 0.8322 | 0.4866 | 0.3136 | 0.9334 |
0.7103 | 2.73 | 30 | 0.0051 | nan | 0.9893 | 0.0043 | 0.0 | 0.9604 | 0.6729 | 0.4972 | 0.3216 | 0.9602 |
0.676 | 3.64 | 40 | 0.0021 | nan | 0.9969 | 0.0020 | 0.0 | 0.9675 | 0.5336 | 0.4995 | 0.3232 | 0.9675 |
0.5955 | 4.55 | 50 | 0.0001 | nan | 0.9993 | 0.0001 | 0.0 | 0.9698 | 0.4440 | 0.4997 | 0.3233 | 0.9698 |
0.5691 | 5.45 | 60 | 0.0000 | nan | 0.9997 | 0.0000 | 0.0 | 0.9702 | 0.3812 | 0.4999 | 0.3234 | 0.9702 |
0.5067 | 6.36 | 70 | 0.0 | nan | 0.9996 | 0.0 | 0.0 | 0.9701 | 0.3590 | 0.4998 | 0.3234 | 0.9701 |
0.4656 | 7.27 | 80 | 0.0 | nan | 0.9999 | 0.0 | 0.0 | 0.9703 | 0.3247 | 0.4999 | 0.3234 | 0.9703 |
0.4227 | 8.18 | 90 | 0.0 | nan | 0.9998 | 0.0 | 0.0 | 0.9702 | 0.3171 | 0.4999 | 0.3234 | 0.9702 |
0.3898 | 9.09 | 100 | 0.0004 | nan | 0.9996 | 0.0004 | 0.0 | 0.9701 | 0.3122 | 0.5000 | 0.3235 | 0.9701 |
0.3513 | 10.0 | 110 | 0.0 | nan | 0.9999 | 0.0 | 0.0 | 0.9703 | 0.2876 | 0.4999 | 0.3234 | 0.9703 |
0.4157 | 10.91 | 120 | 0.0000 | nan | 0.9998 | 0.0000 | 0.0 | 0.9703 | 0.2820 | 0.4999 | 0.3234 | 0.9703 |
0.3317 | 11.82 | 130 | 0.0 | nan | 0.9999 | 0.0 | 0.0 | 0.9703 | 0.2693 | 0.4999 | 0.3234 | 0.9703 |
0.321 | 12.73 | 140 | 0.0 | nan | 0.9999 | 0.0 | 0.0 | 0.9704 | 0.2647 | 0.4999 | 0.3235 | 0.9704 |
0.2887 | 13.64 | 150 | 0.0 | nan | 0.9999 | 0.0 | 0.0 | 0.9704 | 0.2539 | 0.5000 | 0.3235 | 0.9704 |
0.3008 | 14.55 | 160 | 0.0 | nan | 0.9999 | 0.0 | 0.0 | 0.9704 | 0.2536 | 0.5000 | 0.3235 | 0.9704 |
0.2853 | 15.45 | 170 | 0.0 | nan | 0.9999 | 0.0 | 0.0 | 0.9704 | 0.2397 | 0.5000 | 0.3235 | 0.9704 |
0.2684 | 16.36 | 180 | 0.0 | nan | 0.9999 | 0.0 | 0.0 | 0.9704 | 0.2321 | 0.5000 | 0.3235 | 0.9704 |
0.2585 | 17.27 | 190 | 0.0000 | nan | 0.9999 | 0.0000 | 0.0 | 0.9704 | 0.2208 | 0.5000 | 0.3235 | 0.9704 |
0.2088 | 18.18 | 200 | 0.0084 | nan | 0.9997 | 0.0083 | 0.0 | 0.9704 | 0.2011 | 0.5041 | 0.3262 | 0.9704 |
0.2518 | 19.09 | 210 | 0.0468 | nan | 0.9989 | 0.0451 | 0.0 | 0.9707 | 0.2026 | 0.5228 | 0.3386 | 0.9707 |
0.218 | 20.0 | 220 | 0.0879 | nan | 0.9984 | 0.0834 | nan | 0.9714 | 0.1889 | 0.5431 | 0.5274 | 0.9715 |
0.2046 | 20.91 | 230 | 0.1931 | nan | 0.9969 | 0.1752 | nan | 0.9730 | 0.1847 | 0.5950 | 0.5741 | 0.9732 |
0.2147 | 21.82 | 240 | 0.2042 | nan | 0.9968 | 0.1850 | nan | 0.9733 | 0.1766 | 0.6005 | 0.5791 | 0.9734 |
0.188 | 22.73 | 250 | 0.2020 | nan | 0.9972 | 0.1849 | nan | 0.9735 | 0.1726 | 0.5996 | 0.5792 | 0.9737 |
0.2175 | 23.64 | 260 | 0.1898 | nan | 0.9974 | 0.1748 | nan | 0.9734 | 0.1706 | 0.5936 | 0.5741 | 0.9735 |
0.2059 | 24.55 | 270 | 0.3006 | nan | 0.9962 | 0.2670 | nan | 0.9754 | 0.1689 | 0.6484 | 0.6212 | 0.9756 |
0.1776 | 25.45 | 280 | 0.2870 | nan | 0.9967 | 0.2587 | nan | 0.9755 | 0.1612 | 0.6418 | 0.6171 | 0.9757 |
0.1585 | 26.36 | 290 | 0.4254 | nan | 0.9944 | 0.3593 | nan | 0.9773 | 0.1537 | 0.7099 | 0.6683 | 0.9776 |
0.1588 | 27.27 | 300 | 0.2798 | nan | 0.9970 | 0.2548 | nan | 0.9756 | 0.1527 | 0.6384 | 0.6152 | 0.9758 |
0.153 | 28.18 | 310 | 0.4288 | nan | 0.9946 | 0.3646 | nan | 0.9776 | 0.1452 | 0.7117 | 0.6711 | 0.9779 |
0.1623 | 29.09 | 320 | 0.4401 | nan | 0.9945 | 0.3726 | nan | 0.9778 | 0.1442 | 0.7173 | 0.6752 | 0.9781 |
0.1603 | 30.0 | 330 | 0.4050 | nan | 0.9958 | 0.3562 | nan | 0.9781 | 0.1407 | 0.7004 | 0.6671 | 0.9784 |
0.1694 | 30.91 | 340 | 0.4585 | nan | 0.9948 | 0.3911 | nan | 0.9786 | 0.1343 | 0.7266 | 0.6849 | 0.9789 |
0.1585 | 31.82 | 350 | 0.3861 | nan | 0.9962 | 0.3433 | nan | 0.9779 | 0.1353 | 0.6912 | 0.6606 | 0.9782 |
0.1342 | 32.73 | 360 | 0.4963 | nan | 0.9939 | 0.4132 | nan | 0.9789 | 0.1338 | 0.7451 | 0.6961 | 0.9792 |
0.1358 | 33.64 | 370 | 0.5048 | nan | 0.9937 | 0.4182 | nan | 0.9789 | 0.1342 | 0.7493 | 0.6986 | 0.9793 |
0.1493 | 34.55 | 380 | 0.4809 | nan | 0.9946 | 0.4080 | nan | 0.9791 | 0.1297 | 0.7377 | 0.6936 | 0.9794 |
0.1435 | 35.45 | 390 | 0.5658 | nan | 0.9923 | 0.4518 | nan | 0.9794 | 0.1271 | 0.7791 | 0.7156 | 0.9797 |
0.1305 | 36.36 | 400 | 0.4157 | nan | 0.9968 | 0.3758 | nan | 0.9793 | 0.1225 | 0.7062 | 0.6776 | 0.9796 |
0.1496 | 37.27 | 410 | 0.5385 | nan | 0.9934 | 0.4420 | nan | 0.9796 | 0.1237 | 0.7659 | 0.7108 | 0.9799 |
0.1445 | 38.18 | 420 | 0.5763 | nan | 0.9924 | 0.4615 | nan | 0.9798 | 0.1207 | 0.7843 | 0.7206 | 0.9801 |
0.1307 | 39.09 | 430 | 0.4853 | nan | 0.9956 | 0.4244 | nan | 0.9803 | 0.1194 | 0.7404 | 0.7023 | 0.9806 |
0.1379 | 40.0 | 440 | 0.5722 | nan | 0.9922 | 0.4557 | nan | 0.9795 | 0.1174 | 0.7822 | 0.7176 | 0.9798 |
0.1202 | 40.91 | 450 | 0.5399 | nan | 0.9943 | 0.4544 | nan | 0.9805 | 0.1143 | 0.7671 | 0.7175 | 0.9809 |
0.1239 | 41.82 | 460 | 0.5580 | nan | 0.9932 | 0.4558 | nan | 0.9800 | 0.1150 | 0.7756 | 0.7179 | 0.9803 |
0.1183 | 42.73 | 470 | 0.4777 | nan | 0.9961 | 0.4236 | nan | 0.9805 | 0.1129 | 0.7369 | 0.7021 | 0.9808 |
0.1202 | 43.64 | 480 | 0.5933 | nan | 0.9928 | 0.4793 | nan | 0.9806 | 0.1119 | 0.7930 | 0.7300 | 0.9810 |
0.1276 | 44.55 | 490 | 0.5425 | nan | 0.9942 | 0.4561 | nan | 0.9806 | 0.1131 | 0.7683 | 0.7183 | 0.9809 |
0.1172 | 45.45 | 500 | 0.6272 | nan | 0.9898 | 0.4700 | nan | 0.9787 | 0.1135 | 0.8085 | 0.7244 | 0.9791 |
0.1288 | 46.36 | 510 | 0.4236 | nan | 0.9974 | 0.3898 | nan | 0.9802 | 0.1105 | 0.7105 | 0.6850 | 0.9804 |
0.1185 | 47.27 | 520 | 0.6035 | nan | 0.9914 | 0.4711 | nan | 0.9796 | 0.1130 | 0.7975 | 0.7254 | 0.9800 |
0.1045 | 48.18 | 530 | 0.5750 | nan | 0.9930 | 0.4679 | nan | 0.9804 | 0.1102 | 0.7840 | 0.7241 | 0.9807 |
0.1211 | 49.09 | 540 | 0.5812 | nan | 0.9929 | 0.4715 | nan | 0.9804 | 0.1069 | 0.7870 | 0.7260 | 0.9808 |
0.1206 | 50.0 | 550 | 0.5221 | nan | 0.9953 | 0.4528 | nan | 0.9811 | 0.1071 | 0.7587 | 0.7169 | 0.9814 |
0.1193 | 50.91 | 560 | 0.4956 | nan | 0.9961 | 0.4398 | nan | 0.9811 | 0.1053 | 0.7459 | 0.7105 | 0.9814 |
0.1116 | 51.82 | 570 | 0.5257 | nan | 0.9951 | 0.4528 | nan | 0.9809 | 0.1043 | 0.7604 | 0.7169 | 0.9812 |
0.1218 | 52.73 | 580 | 0.5936 | nan | 0.9922 | 0.4724 | nan | 0.9801 | 0.1078 | 0.7929 | 0.7262 | 0.9804 |
0.1284 | 53.64 | 590 | 0.5872 | nan | 0.9924 | 0.4696 | nan | 0.9801 | 0.1054 | 0.7898 | 0.7248 | 0.9804 |
0.096 | 54.55 | 600 | 0.5451 | nan | 0.9942 | 0.4580 | nan | 0.9806 | 0.1028 | 0.7697 | 0.7193 | 0.9809 |
0.1091 | 55.45 | 610 | 0.6014 | nan | 0.9917 | 0.4725 | nan | 0.9798 | 0.1022 | 0.7965 | 0.7261 | 0.9802 |
0.1068 | 56.36 | 620 | 0.4926 | nan | 0.9962 | 0.4374 | nan | 0.9810 | 0.1015 | 0.7444 | 0.7092 | 0.9813 |
0.106 | 57.27 | 630 | 0.5713 | nan | 0.9937 | 0.4731 | nan | 0.9809 | 0.1011 | 0.7825 | 0.7270 | 0.9812 |
0.1009 | 58.18 | 640 | 0.4512 | nan | 0.9969 | 0.4089 | nan | 0.9805 | 0.1028 | 0.7240 | 0.6947 | 0.9807 |
0.1018 | 59.09 | 650 | 0.6053 | nan | 0.9919 | 0.4779 | nan | 0.9801 | 0.1022 | 0.7986 | 0.7290 | 0.9805 |
0.1012 | 60.0 | 660 | 0.5167 | nan | 0.9949 | 0.4427 | nan | 0.9805 | 0.1016 | 0.7558 | 0.7116 | 0.9808 |
0.1052 | 60.91 | 670 | 0.5464 | nan | 0.9943 | 0.4604 | nan | 0.9808 | 0.0999 | 0.7703 | 0.7206 | 0.9811 |
0.1229 | 61.82 | 680 | 0.5706 | nan | 0.9939 | 0.4750 | nan | 0.9810 | 0.0993 | 0.7822 | 0.7280 | 0.9814 |
0.0963 | 62.73 | 690 | 0.5746 | nan | 0.9936 | 0.4754 | nan | 0.9809 | 0.0974 | 0.7841 | 0.7282 | 0.9813 |
📄 ライセンス
Other
Clipseg Rd64 Refined
Apache-2.0
CLIPSegはテキストと画像プロンプトに基づく画像セグメンテーションモデルで、ゼロショットおよびワンショット画像セグメンテーションタスクをサポートします。
画像セグメンテーション
Transformers

C
CIDAS
10.0M
122
RMBG 1.4
その他
BRIA RMBG v1.4 は、効率的に様々な画像の前景と背景を分離するために設計された先進的な背景除去モデルで、非商用利用に適しています。
画像セグメンテーション
Transformers

R
briaai
874.12k
1,771
RMBG 2.0
その他
BRIA AIが開発した最新の背景除去モデルで、様々な画像の前景と背景を効果的に分離でき、大規模な商業コンテンツ制作シーンに適しています。
画像セグメンテーション
Transformers

R
briaai
703.33k
741
Segformer B2 Clothes
MIT
ATRデータセットでファインチューニングされたSegFormerモデル、服装と人体セグメンテーション用
画像セグメンテーション
Transformers

S
mattmdjaga
666.39k
410
Sam Vit Base
Apache-2.0
SAMは、点やボックスなどの入力プロンプトから高品質なオブジェクトマスクを生成できる視覚モデルで、ゼロショットセグメンテーションタスクをサポートします
画像セグメンテーション
Transformers その他

S
facebook
635.09k
137
Birefnet
MIT
BiRefNetは高解像度二分画像分割のための深層学習モデルで、バイラテラル参照ネットワークにより精密な画像分割を実現します。
画像セグメンテーション
Transformers

B
ZhengPeng7
626.54k
365
Segformer B1 Finetuned Ade 512 512
その他
SegFormerはTransformerベースのセマンティックセグメンテーションモデルで、ADE20Kデータセットでファインチューニングされており、画像分割タスクに適しています。
画像セグメンテーション
Transformers

S
nvidia
560.79k
6
Sam Vit Large
Apache-2.0
SAMは入力プロンプト点やバウンディングボックスから高品質な物体マスクを生成できる視覚モデルで、ゼロショット転移能力を備えています。
画像セグメンテーション
Transformers その他

S
facebook
455.43k
28
Face Parsing
nvidia/mit-b5をファインチューニングしたセマンティックセグメンテーションモデルで、顔解析タスク用
画像セグメンテーション
Transformers 英語

F
jonathandinu
398.59k
157
Sam Vit Huge
Apache-2.0
SAMは入力プロンプトに基づいて高品質なオブジェクトマスクを生成できるビジュアルモデルで、新しいタスクへのゼロショット転移をサポートします
画像セグメンテーション
Transformers その他

S
facebook
324.78k
163
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98