Segformer B0 Finetuned Teeth Segmentation
S
Segformer B0 Finetuned Teeth Segmentation
vimassaruによって開発
MIT-B0アーキテクチャを基に微調整した歯科X線画像分割モデルで、歯科画像における歯牙領域の精密な分割に特化
ダウンロード数 55
リリース時間 : 7/4/2023
モデル概要
このモデルは歯科X線画像に最適化されたセマンティックセグメンテーションモデルで、画像内の各歯牙領域を識別・分割可能。国際標準歯牙番号システムの32歯分類に対応
モデル特徴
高精度歯牙分割
テストセットで0.73の平均IoUと0.81の総合精度を達成。前歯や臼歯などの重要歯牙の分割精度は85%以上
完全歯牙番号対応
国際標準歯牙番号システム(11-48番号)をサポートし、32本の独立歯牙を識別可能
軽量アーキテクチャ
SegFormer-B0の軽量設計により、医療現場のリアルタイム処理要求に適応
モデル能力
X線画像解析
歯牙領域分割
マルチクラスセマンティックセグメンテーション
医療画像処理
使用事例
歯科診断
歯牙位置分析
X線写真内の各歯牙の正確な位置と境界を自動識別
平均位置特定精度81.84%
歯牙健康状態評価
他のアルゴリズムと連携して齲蝕検出や歯周病分析を実現
歯科教育
教育用補助注釈
教育デモ用に歯牙注釈を自動生成
🚀 segformer-b0-finetuned-segments-sidewalk-oct-22
このモデルは、nvidia/mit-b0 を vimassaru/teethsegmentation データセットでファインチューニングしたバージョンです。評価セットでは以下の結果を達成しています。
- 損失: 0.1880
- 平均IoU: 0.7311
- 平均精度: 0.8106
- 全体精度: 0.8184
- 背景精度: nan
- 精度11: 0.8456
- 精度12: 0.8351
- 精度13: 0.8619
- 精度14: 0.8112
- 精度15: 0.8087
- 精度16: 0.9141
- 精度17: 0.8742
- 精度18: 0.7394
- 精度21: 0.8758
- 精度22: 0.8579
- 精度23: 0.8480
- 精度24: 0.7169
- 精度25: 0.8273
- 精度26: 0.8481
- 精度27: 0.8284
- 精度28: 0.7298
- 精度31: 0.7495
- 精度32: 0.7987
- 精度33: 0.8661
- 精度34: 0.8392
- 精度35: 0.7596
- 精度36: 0.7482
- 精度37: 0.8109
- 精度38: 0.7016
- 精度41: 0.7217
- 精度42: 0.7480
- 精度43: 0.8447
- 精度44: 0.7868
- 精度45: 0.8250
- 精度46: 0.8762
- 精度47: 0.8519
- 精度48: 0.7878
- IoU背景: 0.0
- IoU 11: 0.8226
- IoU 12: 0.8155
- IoU 13: 0.8048
- IoU 14: 0.7807
- IoU 15: 0.7909
- IoU 16: 0.8609
- IoU 17: 0.8145
- IoU 18: 0.6999
- IoU 21: 0.8266
- IoU 22: 0.8160
- IoU 23: 0.8000
- IoU 24: 0.6900
- IoU 25: 0.7760
- IoU 26: 0.8065
- IoU 27: 0.7338
- IoU 28: 0.6771
- IoU 31: 0.6604
- IoU 32: 0.7394
- IoU 33: 0.7977
- IoU 34: 0.7577
- IoU 35: 0.6944
- IoU 36: 0.6774
- IoU 37: 0.7224
- IoU 38: 0.6099
- IoU 41: 0.6166
- IoU 42: 0.6741
- IoU 43: 0.7706
- IoU 44: 0.7386
- IoU 45: 0.7555
- IoU 46: 0.8271
- IoU 47: 0.8210
- IoU 48: 0.7466
🚀 クイックスタート
このモデルは、歯のX線画像のセグメンテーションタスクに使用できます。
🔧 技術詳細
学習ハイパーパラメータ
学習中に以下のハイパーパラメータが使用されました。
- 学習率: 0.0006
- 学習バッチサイズ: 8
- 評価バッチサイズ: 8
- シード: 42
- オプティマイザ: Adam (betas=(0.9,0.999), epsilon=1e-08)
- 学習率スケジューラのタイプ: 線形
- エポック数: 200
学習結果
学習損失 | エポック | ステップ | 検証損失 | 平均IoU | 平均精度 | 全体精度 | 背景精度 | 精度11 | 精度12 | 精度13 | 精度14 | 精度15 | 精度16 | 精度17 | 精度18 | 精度21 | 精度22 | 精度23 | 精度24 | 精度25 | 精度26 | 精度27 | 精度28 | 精度31 | 精度32 | 精度33 | 精度34 | 精度35 | 精度36 | 精度37 | 精度38 | 精度41 | 精度42 | 精度43 | 精度44 | 精度45 | 精度46 | 精度47 | 精度48 | IoU背景 | IoU 11 | IoU 12 | IoU 13 | IoU 14 | IoU 15 | IoU 16 | IoU 17 | IoU 18 | IoU 21 | IoU 22 | IoU 23 | IoU 24 | IoU 25 | IoU 26 | IoU 27 | IoU 28 | IoU 31 | IoU 32 | IoU 33 | IoU 34 | IoU 35 | IoU 36 | IoU 37 | IoU 38 | IoU 41 | IoU 42 | IoU 43 | IoU 44 | IoU 45 | IoU 46 | IoU 47 | IoU 48 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
1.5068 | 2.0 | 20 | 1.5257 | 0.0331 | 0.0872 | 0.1082 | nan | 0.0 | 0.0 | 0.0325 | 0.0 | 0.0 | 0.3861 | 0.7782 | 0.0 | 0.5551 | 0.0 | 0.0003 | 0.0 | 0.0 | 0.0025 | 0.5879 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.1233 | 0.1058 | 0.0 | 0.0 | 0.0 | 0.0001 | 0.0 | 0.0 | 0.0 | 0.2200 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0298 | 0.0 | 0.0 | 0.2256 | 0.2666 | 0.0 | 0.0733 | 0.0 | 0.0003 | 0.0 | 0.0 | 0.0025 | 0.1063 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0983 | 0.0956 | 0.0 | 0.0 | 0.0 | 0.0001 | 0.0 | 0.0 | 0.0 | 0.1930 | 0.0 |
0.6989 | 4.0 | 40 | 0.6959 | 0.0319 | 0.0406 | 0.0525 | nan | 0.0032 | 0.0 | 0.0 | 0.0 | 0.0 | 0.1235 | 0.5046 | 0.0 | 0.0025 | 0.0 | 0.0023 | 0.0 | 0.0 | 0.0821 | 0.2861 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0411 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.2543 | 0.0 | 0.0 | 0.0032 | 0.0 | 0.0 | 0.0 | 0.0 | 0.1124 | 0.3456 | 0.0 | 0.0024 | 0.0 | 0.0023 | 0.0 | 0.0 | 0.0706 | 0.2383 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0395 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.2387 | 0.0 |
0.5093 | 6.0 | 60 | 0.4954 | 0.1659 | 0.2494 | 0.3064 | nan | 0.4165 | 0.0 | 0.5606 | 0.2388 | 0.2757 | 0.7236 | 0.7757 | 0.0 | 0.6343 | 0.0 | 0.5877 | 0.0009 | 0.0374 | 0.7495 | 0.7771 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0323 | 0.0 | 0.0006 | 0.8019 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0436 | 0.0 | 0.0556 | 0.7505 | 0.5182 | 0.0 | 0.2822 | 0.0 | 0.3631 | 0.2026 | 0.2067 | 0.4694 | 0.5250 | 0.0 | 0.3620 | 0.0 | 0.4125 | 0.0009 | 0.0358 | 0.4261 | 0.5167 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0299 | 0.0 | 0.0006 | 0.5306 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0423 | 0.0 | 0.0555 | 0.5479 | 0.4643 |
0.3942 | 8.0 | 80 | 0.3680 | 0.3501 | 0.4658 | 0.5243 | nan | 0.5738 | 0.1433 | 0.7262 | 0.5454 | 0.5830 | 0.7900 | 0.8112 | 0.0005 | 0.7442 | 0.0533 | 0.8308 | 0.3071 | 0.5064 | 0.8316 | 0.7153 | 0.0 | 0.0000 | 0.0743 | 0.6079 | 0.4475 | 0.1634 | 0.6588 | 0.7590 | 0.2711 | 0.0 | 0.3319 | 0.4395 | 0.6430 | 0.2279 | 0.7393 | 0.6828 | 0.6962 | 0.0 | 0.4491 | 0.1389 | 0.5260 | 0.4596 | 0.5023 | 0.6223 | 0.5467 | 0.0005 | 0.5418 | 0.0531 | 0.5015 | 0.2715 | 0.4175 | 0.6065 | 0.4828 | 0.0 | 0.0000 | 0.0713 | 0.3230 | 0.3481 | 0.1586 | 0.5433 | 0.5740 | 0.2533 | 0.0 | 0.2423 | 0.3966 | 0.4280 | 0.2200 | 0.6234 | 0.6177 | 0.6324 |
0.2784 | 10.0 | 100 | 0.2889 | 0.4636 | 0.5684 | 0.6056 | nan | 0.7515 | 0.3831 | 0.6687 | 0.4978 | 0.5445 | 0.7171 | 0.8213 | 0.3704 | 0.8125 | 0.4238 | 0.7137 | 0.3553 | 0.3746 | 0.6771 | 0.7124 | 0.3304 | 0.2737 | 0.3675 | 0.6784 | 0.5418 | 0.5543 | 0.6343 | 0.7606 | 0.5879 | 0.0628 | 0.4605 | 0.6789 | 0.6545 | 0.4182 | 0.8261 | 0.8022 | 0.7318 | 0.0 | 0.5755 | 0.3346 | 0.5240 | 0.4448 | 0.5151 | 0.6337 | 0.6315 | 0.3573 | 0.5967 | 0.3743 | 0.5367 | 0.2860 | 0.3354 | 0.6064 | 0.5735 | 0.3130 | 0.2389 | 0.3153 | 0.5370 | 0.4762 | 0.4740 | 0.5568 | 0.6436 | 0.4934 | 0.0622 | 0.3368 | 0.5307 | 0.4908 | 0.4042 | 0.7224 | 0.7127 | 0.6656 |
0.2464 | 12.0 | 120 | 0.2468 | 0.5400 | 0.6505 | 0.6768 | nan | 0.7948 | 0.5458 | 0.7406 | 0.5603 | 0.6560 | 0.8367 | 0.8329 | 0.4258 | 0.8497 | 0.5678 | 0.7320 | 0.5367 | 0.6036 | 0.7622 | 0.7365 | 0.5251 | 0.4648 | 0.6275 | 0.7353 | 0.5512 | 0.6709 | 0.6991 | 0.7896 | 0.6117 | 0.2989 | 0.5592 | 0.6312 | 0.5789 | 0.6009 | 0.8589 | 0.7659 | 0.6656 | 0.0 | 0.6477 | 0.4822 | 0.5850 | 0.4886 | 0.6094 | 0.7392 | 0.6728 | 0.4202 | 0.6684 | 0.4945 | 0.6069 | 0.4492 | 0.4973 | 0.6686 | 0.6208 | 0.4915 | 0.3555 | 0.4906 | 0.5972 | 0.4926 | 0.5760 | 0.6233 | 0.6776 | 0.5277 | 0.2650 | 0.4418 | 0.5141 | 0.4982 | 0.5567 | 0.7441 | 0.6964 | 0.6216 |
0.1842 | 14.0 | 140 | 0.2142 | 0.6089 | 0.7198 | 0.7422 | nan | 0.7984 | 0.6803 | 0.7803 | 0.6313 | 0.7672 | 0.8662 | 0.8918 | 0.6084 | 0.8619 | 0.7294 | 0.8191 | 0.6076 | 0.7007 | 0.8122 | 0.8322 | 0.3832 | 0.5565 | 0.6651 | 0.8472 | 0.7226 | 0.7371 | 0.7750 | 0.7743 | 0.5362 | 0.5420 | 0.6400 | 0.7419 | 0.7320 | 0.6402 | 0.8401 | 0.8309 | 0.6816 | 0.0 | 0.7143 | 0.6368 | 0.7007 | 0.5825 | 0.6365 | 0.7816 | 0.7521 | 0.5826 | 0.7414 | 0.6622 | 0.7151 | 0.5453 | 0.5588 | 0.7077 | 0.6385 | 0.3652 | 0.4556 | 0.5434 | 0.7138 | 0.6374 | 0.6336 | 0.6464 | 0.6580 | 0.4844 | 0.4542 | 0.5349 | 0.6565 | 0.6279 | 0.5893 | 0.7605 | 0.7330 | 0.6423 |
0.1488 | 16.0 | 160 | 0.1933 | 0.6322 | 0.7373 | 0.7542 | nan | 0.7908 | 0.6508 | 0.7861 | 0.7352 | 0.7521 | 0.8892 | 0.8725 | 0.6348 | 0.8581 | 0.6927 | 0.8070 | 0.6642 | 0.7642 | 0.8278 | 0.8363 | 0.5789 | 0.6088 | 0.6556 | 0.8139 | 0.6966 | 0.6829 | 0.7853 | 0.7453 | 0.6678 | 0.5757 | 0.6036 | 0.7537 | 0.7381 | 0.7114 | 0.8446 | 0.8103 | 0.7584 | 0.0 | 0.6990 | 0.6113 | 0.7069 | 0.6612 | 0.7097 | 0.7968 | 0.7383 | 0.6079 | 0.7618 | 0.6629 | 0.7209 | 0.5896 | 0.6152 | 0.7371 | 0.6847 | 0.5395 | 0.5130 | 0.5606 | 0.6936 | 0.6153 | 0.5981 | 0.6347 | 0.6535 | 0.5868 | 0.4842 | 0.5324 | 0.6701 | 0.6410 | 0.6346 | 0.7595 | 0.7362 | 0.7052 |
0.1416 | 18.0 | 180 | 0.1841 | 0.6533 | 0.7530 | 0.7611 | nan | 0.8485 | 0.7657 | 0.8163 | 0.6475 | 0.6706 | 0.7889 | 0.8295 | 0.8478 | 0.8320 | 0.7455 | 0.7939 | 0.5882 | 0.6691 | 0.7761 | 0.7446 | 0.7167 | 0.5879 | 0.6785 | 0.7867 | 0.7367 | 0.7456 | 0.7522 | 0.7657 | 0.7979 | 0.6336 | 0.7404 | 0.8204 | 0.7517 | 0.6922 | 0.8420 | 0.8470 | 0.8352 | 0.0 | 0.7802 | 0.7301 | 0.7232 | 0.6005 | 0.6380 | 0.7526 | 0.7347 | 0.6939 | 0.7603 | 0.6879 | 0.6913 | 0.5221 | 0.5773 | 0.7374 | 0.6773 | 0.6223 | 0.5234 | 0.5861 | 0.7062 | 0.6492 | 0.6365 | 0.6644 | 0.6850 | 0.6211 | 0.5522 | 0.6502 | 0.7557 | 0.6860 | 0.6374 | 0.7636 | 0.7728 | 0.7395 |
0.1346 | 20.0 | 200 | 0.1742 | 0.6462 | 0.7375 | 0.7528 | nan | 0.8037 | 0.7862 | 0.7855 | 0.7327 | 0.7617 | 0.8752 | 0.8049 | 0.5045 | 0.8113 | 0.7420 | 0.8055 | 0.5818 | 0.6962 | 0.7828 | 0.8136 | 0.5866 | 0.5741 | 0.7100 | 0.8119 | 0.7525 | 0.6603 | 0.7224 | 0.8027 | 0.6645 | 0.6230 | 0.7702 | 0.8144 | 0.6772 | 0.7818 | 0.8084 | 0.8461 | 0.7052 | 0.0 | 0.7651 | 0.7384 | 0.7206 | 0.6790 | 0.7135 | 0.7803 | 0.6876 | 0.4954 | 0.7515 | 0.6922 | 0.7354 | 0.5483 | 0.6050 | 0.7345 | 0.6809 | 0.5512 | 0.5261 | 0.6238 | 0.7292 | 0.6495 | 0.5871 | 0.6396 | 0.7011 | 0.5818 | 0.5478 | 0.6583 | 0.7103 | 0.6303 | 0.6758 | 0.7516 | 0.7592 | 0.6734 |
0.1042 | 22.0 | 220 | 0.1637 | 0.6758 | 0.7706 | 0.7839 | nan | 0.8440 | 0.8257 | 0.8354 | 0.7495 | 0.7759 | 0.9255 | 0.8405 | 0.5792 | 0.8443 | 0.8035 | 0.8293 | 0.6949 | 0.8221 | 0.8176 | 0.7856 | 0.5664 | 0.6291 | 0.7734 | 0.8161 | 0.7754 | 0.6758 | 0.7612 | 0.7892 | 0.6925 | 0.6765 | 0.7656 | 0.8216 | 0.7656 | 0.7414 | 0.8543 | 0.8211 | 0.7612 | 0.0 | 0.7956 | 0.7843 | 0.7713 | 0.6988 | 0.7373 | 0.8287 | 0.7380 | 0.5596 | 0.7925 | 0.7543 | 0.7762 | 0.6417 | 0.6676 | 0.7463 | 0.6649 | 0.5328 | 0.5629 | 0.6537 | 0.7400 | 0.6748 | 0.6041 | 0.6581 | 0.6950 | 0.6081 | 0.5778 | 0.6579 | 0.7449 | 0.6918 | 0.6812 | 0.7902 | 0.7652 | 0.7059 |
0.1014 | 24.0 | 240 | 0.1628 | 0.6739 | 0.7704 | 0.7833 | nan | 0.8358 | 0.8065 | 0.8226 | 0.7126 | 0.7269 | 0.8906 | 0.8694 | 0.6430 | 0.8772 | 0.7933 | 0.8077 | 0.6404 | 0.7989 | 0.8127 | 0.7760 | 0.5488 | 0.7075 | 0.7579 | 0.8430 | 0.7868 | 0.7336 | 0.7986 | 0.7866 | 0.6533 | 0.6949 | 0.6935 | 0.7829 | 0.7970 | 0.7933 | 0.8418 | 0.8350 | 0.7834 | 0.0 | 0.7942 | 0.7717 | 0.7501 | 0.6543 | 0.7011 | 0.8332 | 0.7823 | 0.6183 | 0.8028 | 0.7212 | 0.7369 | 0.5974 | 0.6623 | 0.7291 | 0.6472 | 0.5168 | 0.6019 | 0.6628 | 0.7611 | 0.6877 | 0.6428 | 0.6768 | 0.6912 | 0.5835 | 0.5659 | 0.5941 | 0.7315 | 0.7195 | 0.7043 | 0.7870 | 0.7801 | 0.7295 |
0.1026 | 26.0 | 260 | 0.1600 | 0.7036 | 0.7975 | 0.8086 | nan | 0.8306 | 0.8021 | 0.8395 | 0.8163 | 0.8010 | 0.9308 | 0.8947 | 0.7863 | 0.8411 | 0.7763 | 0.8088 | 0.6931 | 0.8100 | 0.8361 |
📄 ライセンス
Other
Clipseg Rd64 Refined
Apache-2.0
CLIPSegはテキストと画像プロンプトに基づく画像セグメンテーションモデルで、ゼロショットおよびワンショット画像セグメンテーションタスクをサポートします。
画像セグメンテーション
Transformers

C
CIDAS
10.0M
122
RMBG 1.4
その他
BRIA RMBG v1.4 は、効率的に様々な画像の前景と背景を分離するために設計された先進的な背景除去モデルで、非商用利用に適しています。
画像セグメンテーション
Transformers

R
briaai
874.12k
1,771
RMBG 2.0
その他
BRIA AIが開発した最新の背景除去モデルで、様々な画像の前景と背景を効果的に分離でき、大規模な商業コンテンツ制作シーンに適しています。
画像セグメンテーション
Transformers

R
briaai
703.33k
741
Segformer B2 Clothes
MIT
ATRデータセットでファインチューニングされたSegFormerモデル、服装と人体セグメンテーション用
画像セグメンテーション
Transformers

S
mattmdjaga
666.39k
410
Sam Vit Base
Apache-2.0
SAMは、点やボックスなどの入力プロンプトから高品質なオブジェクトマスクを生成できる視覚モデルで、ゼロショットセグメンテーションタスクをサポートします
画像セグメンテーション
Transformers その他

S
facebook
635.09k
137
Birefnet
MIT
BiRefNetは高解像度二分画像分割のための深層学習モデルで、バイラテラル参照ネットワークにより精密な画像分割を実現します。
画像セグメンテーション
Transformers

B
ZhengPeng7
626.54k
365
Segformer B1 Finetuned Ade 512 512
その他
SegFormerはTransformerベースのセマンティックセグメンテーションモデルで、ADE20Kデータセットでファインチューニングされており、画像分割タスクに適しています。
画像セグメンテーション
Transformers

S
nvidia
560.79k
6
Sam Vit Large
Apache-2.0
SAMは入力プロンプト点やバウンディングボックスから高品質な物体マスクを生成できる視覚モデルで、ゼロショット転移能力を備えています。
画像セグメンテーション
Transformers その他

S
facebook
455.43k
28
Face Parsing
nvidia/mit-b5をファインチューニングしたセマンティックセグメンテーションモデルで、顔解析タスク用
画像セグメンテーション
Transformers 英語

F
jonathandinu
398.59k
157
Sam Vit Huge
Apache-2.0
SAMは入力プロンプトに基づいて高品質なオブジェクトマスクを生成できるビジュアルモデルで、新しいタスクへのゼロショット転移をサポートします
画像セグメンテーション
Transformers その他

S
facebook
324.78k
163
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98