rtdetr-v2-r50-cppe5-finetune-2

This model is a fine-tuned version of PekingU/rtdetr_v2_r50vd on an unknown dataset. It achieves the following results on the evaluation set:

  • Loss: 9.2996
  • Map: 0.3651
  • Map 50: 0.5466
  • Map 75: 0.383
  • Map Small: 0.2958
  • Map Medium: 0.3972
  • Map Large: 0.4626
  • Mar 1: 0.2229
  • Mar 10: 0.4668
  • Mar 100: 0.5843
  • Mar Small: 0.4974
  • Mar Medium: 0.5996
  • Mar Large: 0.6166
  • Map Plane: 0.6432
  • Mar 100 Plane: 0.7129
  • Map Ship: 0.4814
  • Mar 100 Ship: 0.5906
  • Map Storage-tank: 0.5778
  • Mar 100 Storage-tank: 0.74
  • Map Baseball-diamond: 0.0738
  • Mar 100 Baseball-diamond: 0.5
  • Map Tennis-court: 0.5923
  • Mar 100 Tennis-court: 0.68
  • Map Basketball-court: 0.3908
  • Mar 100 Basketball-court: 0.6833
  • Map Ground-track-field: 0.4067
  • Mar 100 Ground-track-field: 0.55
  • Map Harbor: 0.2198
  • Mar 100 Harbor: 0.5298
  • Map Bridge: 0.045
  • Mar 100 Bridge: 0.24
  • Map Small-vehicle: 0.3045
  • Mar 100 Small-vehicle: 0.4403
  • Map Large-vehicle: 0.5136
  • Mar 100 Large-vehicle: 0.6855
  • Map Roundabout: 0.3772
  • Mar 100 Roundabout: 0.7182
  • Map Swimming-pool: 0.1756
  • Mar 100 Swimming-pool: 0.36
  • Map Helicopter: -1.0
  • Mar 100 Helicopter: -1.0
  • Map Soccer-ball-field: 0.3102
  • Mar 100 Soccer-ball-field: 0.75
  • Map Container-crane: -1.0
  • Mar 100 Container-crane: -1.0

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 5e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
  • lr_scheduler_type: linear
  • lr_scheduler_warmup_steps: 300
  • num_epochs: 30

Training results

Training Loss Epoch Step Validation Loss Map Map 50 Map 75 Map Small Map Medium Map Large Mar 1 Mar 10 Mar 100 Mar Small Mar Medium Mar Large Map Plane Mar 100 Plane Map Ship Mar 100 Ship Map Storage-tank Mar 100 Storage-tank Map Baseball-diamond Mar 100 Baseball-diamond Map Tennis-court Mar 100 Tennis-court Map Basketball-court Mar 100 Basketball-court Map Ground-track-field Mar 100 Ground-track-field Map Harbor Mar 100 Harbor Map Bridge Mar 100 Bridge Map Small-vehicle Mar 100 Small-vehicle Map Large-vehicle Mar 100 Large-vehicle Map Roundabout Mar 100 Roundabout Map Swimming-pool Mar 100 Swimming-pool Map Helicopter Mar 100 Helicopter Map Soccer-ball-field Mar 100 Soccer-ball-field Map Container-crane Mar 100 Container-crane
No log 1.0 88 25.4517 0.0042 0.0068 0.0041 0.0025 0.0061 0.0314 0.0045 0.0145 0.0303 0.0074 0.0293 0.0986 0.0 0.0 0.0168 0.0379 0.0149 0.0263 0.0 0.0 0.0 0.0 0.0 0.0 0.0001 0.24 0.0 0.0 0.0 0.0 0.0213 0.1037 0.0093 0.014 0.0 0.0 0.0003 0.032 -1.0 -1.0 0.0 0.0 0.0 0.0
No log 2.0 176 20.1694 0.0533 0.09 0.0587 0.0359 0.0726 0.0803 0.0371 0.1015 0.1769 0.1142 0.2239 0.3184 0.1794 0.4671 0.2892 0.4992 0.0037 0.3816 0.0 0.0 0.0241 0.1583 0.0 0.0 0.0 0.0 0.0059 0.0291 0.0 0.0 0.1353 0.2807 0.1285 0.527 0.0303 0.2 0.004 0.11 -1.0 -1.0 0.0 0.0 0.0 0.0
No log 3.0 264 14.9836 0.0846 0.1417 0.087 0.0635 0.1184 0.1826 0.0576 0.1991 0.291 0.2215 0.2839 0.4473 0.2161 0.5027 0.2589 0.5276 0.1487 0.6605 0.0 0.0 0.1102 0.2167 0.0 0.0 0.0002 0.12 0.0682 0.2646 0.0 0.0 0.1915 0.3319 0.2193 0.5586 0.0443 0.4222 0.0116 0.16 -1.0 -1.0 0.0 0.0 0.0005 0.6
No log 4.0 352 14.1814 0.1282 0.2111 0.1337 0.1045 0.1603 0.2022 0.0609 0.2 0.282 0.2162 0.3251 0.5015 0.3962 0.5658 0.3724 0.5957 0.363 0.6447 0.0 0.0 0.1996 0.2333 0.0 0.0 0.0006 0.28 0.1563 0.4797 0.0 0.0 0.2066 0.3478 0.2081 0.5797 0.004 0.1778 0.0158 0.176 -1.0 -1.0 0.0004 0.15 0.0 0.0
No log 5.0 440 13.4076 0.1585 0.2597 0.1673 0.1216 0.2051 0.1611 0.0816 0.2437 0.3324 0.3078 0.3586 0.4479 0.399 0.5493 0.3981 0.5844 0.5165 0.6816 0.0765 0.3143 0.1683 0.1667 0.0 0.0 0.0001 0.18 0.1232 0.4595 0.0011 0.0889 0.2144 0.3478 0.3437 0.6486 0.0531 0.3333 0.0794 0.282 -1.0 -1.0 0.003 0.25 0.0003 0.1
29.0102 6.0 528 11.9939 0.1826 0.3022 0.1882 0.1223 0.2211 0.267 0.0845 0.2492 0.3486 0.2705 0.4467 0.503 0.425 0.5521 0.4321 0.6317 0.5051 0.7026 0.0762 0.2857 0.2724 0.3333 0.0 0.0 0.0059 0.44 0.1342 0.4848 0.0001 0.0111 0.2457 0.3793 0.4366 0.709 0.1391 0.3667 0.0663 0.308 -1.0 -1.0 0.0006 0.025 0.0 0.0
29.0102 7.0 616 11.6131 0.1816 0.2996 0.1866 0.1624 0.2153 0.2611 0.1083 0.2786 0.3697 0.3105 0.4143 0.5789 0.4016 0.5247 0.4322 0.6217 0.5639 0.7026 0.109 0.3429 0.2366 0.275 0.0 0.0 0.0029 0.46 0.1711 0.4911 0.0036 0.1111 0.2409 0.3801 0.3971 0.6874 0.1032 0.4333 0.0572 0.34 -1.0 -1.0 0.0053 0.175 0.0 0.0
29.0102 8.0 704 11.5147 0.197 0.3432 0.1936 0.1485 0.2397 0.2802 0.1312 0.3303 0.4256 0.2678 0.4227 0.6935 0.4432 0.5603 0.4805 0.6419 0.5221 0.6447 0.1193 0.5143 0.2468 0.3 0.0 0.0 0.022 0.64 0.233 0.5684 0.0162 0.1 0.2532 0.3784 0.3621 0.6374 0.0735 0.4 0.1258 0.298 -1.0 -1.0 0.0098 0.2 0.0477 0.5
29.0102 9.0 792 11.5088 0.2292 0.3903 0.2354 0.1937 0.2654 0.3181 0.1335 0.3328 0.4433 0.3076 0.4504 0.6811 0.4572 0.5973 0.4886 0.6639 0.5129 0.6842 0.211 0.5143 0.2526 0.35 0.0 0.0 0.0051 0.7 0.2677 0.5139 0.0063 0.1222 0.2591 0.3817 0.49 0.7131 0.2461 0.4556 0.1023 0.378 -1.0 -1.0 0.0054 0.175 0.1333 0.4
29.0102 10.0 880 11.1732 0.224 0.3831 0.2293 0.1834 0.2493 0.3322 0.1103 0.334 0.4504 0.3186 0.4659 0.6957 0.4729 0.5671 0.4927 0.6598 0.5245 0.6789 0.0966 0.5 0.2592 0.4 0.0 0.0 0.13 0.62 0.2712 0.5468 0.0134 0.1111 0.2703 0.3857 0.4913 0.709 0.0934 0.4 0.1138 0.378 -1.0 -1.0 0.0229 0.2 0.1083 0.6
29.0102 11.0 968 10.8764 0.211 0.3604 0.2169 0.156 0.2607 0.2969 0.0939 0.3353 0.4286 0.3252 0.4256 0.6603 0.4866 0.5918 0.4991 0.6678 0.5128 0.6658 0.1055 0.4714 0.2119 0.3083 0.0 0.0 0.0139 0.52 0.2939 0.5367 0.0182 0.1111 0.2688 0.3957 0.453 0.7212 0.167 0.4444 0.1301 0.394 -1.0 -1.0 0.0017 0.2 0.0031 0.4
15.7212 12.0 1056 10.6630 0.2335 0.4047 0.2246 0.1821 0.2791 0.3896 0.1324 0.3383 0.4547 0.3184 0.4906 0.6587 0.4914 0.5808 0.4921 0.6678 0.5194 0.6737 0.1295 0.4571 0.1784 0.3583 0.0 0.0 0.0229 0.6 0.3227 0.5823 0.0428 0.1778 0.266 0.3982 0.5104 0.7131 0.1807 0.4556 0.204 0.456 -1.0 -1.0 0.0036 0.1 0.1392 0.6
15.7212 13.0 1144 11.0687 0.23 0.387 0.2471 0.1712 0.2709 0.3033 0.1183 0.3425 0.4458 0.325 0.4967 0.6931 0.5014 0.6068 0.4947 0.6637 0.5254 0.6763 0.0657 0.3857 0.2253 0.3583 0.0 0.0 0.1651 0.64 0.3136 0.5835 0.0243 0.1556 0.2579 0.3849 0.4517 0.709 0.2071 0.4556 0.1705 0.368 -1.0 -1.0 0.0139 0.2 0.033 0.5
15.7212 14.0 1232 10.9887 0.2391 0.3985 0.2554 0.1828 0.3059 0.2786 0.1245 0.3792 0.4764 0.3224 0.513 0.6981 0.5166 0.5986 0.4857 0.6785 0.5542 0.7079 0.1125 0.5143 0.2716 0.3833 0.0 0.0 0.048 0.66 0.3393 0.6025 0.0761 0.1778 0.2643 0.3893 0.4831 0.7176 0.2294 0.4667 0.1915 0.45 -1.0 -1.0 0.0137 0.2 0.0011 0.6
15.7212 15.0 1320 10.7109 0.2637 0.4469 0.2786 0.1669 0.3115 0.3557 0.136 0.3748 0.4761 0.3325 0.4656 0.6819 0.5098 0.6027 0.4819 0.6683 0.5734 0.7237 0.1718 0.4286 0.2432 0.3 0.0 0.0 0.035 0.6 0.3464 0.6139 0.0467 0.1889 0.2751 0.4018 0.4934 0.7257 0.3354 0.4889 0.1784 0.474 -1.0 -1.0 0.0772 0.225 0.1875 0.7
15.7212 16.0 1408 10.5691 0.2425 0.4412 0.2375 0.1652 0.2995 0.2878 0.1185 0.3349 0.4241 0.3633 0.5052 0.5158 0.4893 0.6137 0.4967 0.6675 0.555 0.6868 0.0762 0.3714 0.1303 0.375 0.0004 0.0167 0.032 0.68 0.3526 0.6278 0.0519 0.1111 0.2677 0.3886 0.4878 0.6856 0.2026 0.3889 0.1958 0.448 -1.0 -1.0 0.0 0.0 0.3 0.3
15.7212 17.0 1496 10.4504 0.275 0.467 0.2711 0.1953 0.3251 0.3186 0.1366 0.3566 0.4787 0.3615 0.5271 0.7095 0.5494 0.6932 0.4902 0.6829 0.586 0.7263 0.1781 0.4286 0.1429 0.35 0.0 0.0 0.0715 0.7 0.3606 0.619 0.0286 0.1667 0.276 0.4056 0.5021 0.6937 0.2912 0.4556 0.2373 0.484 -1.0 -1.0 0.0007 0.175 0.4111 0.6
13.6954 18.0 1584 10.5193 0.2749 0.4593 0.2754 0.1839 0.313 0.3305 0.1285 0.3674 0.4762 0.3443 0.467 0.7019 0.5493 0.6452 0.5076 0.6816 0.6065 0.7342 0.2002 0.4571 0.1805 0.3083 0.0 0.0 0.0895 0.6 0.3764 0.6494 0.0045 0.1778 0.2813 0.3996 0.4814 0.6941 0.2725 0.4667 0.2098 0.454 -1.0 -1.0 0.0021 0.175 0.362 0.7
13.6954 19.0 1672 10.5809 0.2674 0.4699 0.2734 0.1747 0.3078 0.3692 0.1318 0.3668 0.4769 0.3993 0.469 0.6847 0.5343 0.6274 0.4819 0.6747 0.5896 0.7026 0.2098 0.4714 0.2291 0.3417 0.0 0.0 0.04 0.68 0.3682 0.6152 0.0235 0.2111 0.2784 0.4021 0.4625 0.6923 0.2632 0.5222 0.1979 0.438 -1.0 -1.0 0.0012 0.175 0.3313 0.6
13.6954 20.0 1760 10.3693 0.2694 0.4794 0.2715 0.1737 0.3039 0.369 0.1389 0.3637 0.5011 0.3714 0.5108 0.6987 0.5429 0.6575 0.4967 0.6806 0.5717 0.6789 0.2065 0.4714 0.2301 0.3083 0.0082 0.0417 0.0851 0.68 0.3568 0.6519 0.0214 0.2222 0.2882 0.4002 0.4941 0.7081 0.198 0.4333 0.2161 0.458 -1.0 -1.0 0.0015 0.425 0.3235 0.7
13.6954 21.0 1848 10.3957 0.2674 0.4494 0.2784 0.1869 0.3176 0.3623 0.1462 0.3646 0.461 0.3673 0.461 0.629 0.5379 0.6411 0.5007 0.6877 0.607 0.7105 0.2067 0.4714 0.2495 0.2667 0.0 0.0 0.1708 0.58 0.3583 0.6139 0.0665 0.3111 0.2838 0.4067 0.4652 0.7 0.273 0.4333 0.2261 0.442 -1.0 -1.0 0.0029 0.05 0.063 0.6
13.6954 22.0 1936 10.5870 0.2837 0.5025 0.3011 0.2016 0.319 0.3547 0.1312 0.3848 0.4868 0.3699 0.4782 0.6906 0.5304 0.6479 0.4985 0.6783 0.6024 0.7105 0.2921 0.5143 0.2317 0.3167 0.0041 0.05 0.1305 0.56 0.3841 0.6582 0.074 0.3556 0.2898 0.4075 0.4938 0.7032 0.2397 0.4444 0.2329 0.48 -1.0 -1.0 0.0011 0.175 0.25 0.6
12.5344 23.0 2024 10.5880 0.2836 0.5099 0.2943 0.1866 0.3357 0.3583 0.1269 0.3666 0.4672 0.3569 0.5405 0.6325 0.5484 0.6329 0.5029 0.6918 0.5995 0.7263 0.2531 0.5143 0.2404 0.375 0.0028 0.05 0.1286 0.66 0.3662 0.6354 0.0582 0.2889 0.2892 0.4014 0.5032 0.6712 0.3226 0.4333 0.2879 0.478 -1.0 -1.0 0.0008 0.05 0.15 0.4
12.5344 24.0 2112 10.3784 0.2725 0.4892 0.2814 0.1911 0.33 0.3301 0.125 0.3539 0.471 0.3633 0.5435 0.6243 0.5351 0.6658 0.5011 0.6859 0.6006 0.7211 0.1963 0.5143 0.2734 0.4083 0.0046 0.0417 0.0466 0.62 0.3587 0.6342 0.0568 0.2778 0.2892 0.4057 0.4952 0.6802 0.3295 0.4556 0.2775 0.48 -1.0 -1.0 0.0016 0.075 0.1214 0.4
12.5344 25.0 2200 10.5771 0.2856 0.5048 0.2945 0.1905 0.3346 0.3629 0.1378 0.3627 0.4881 0.3714 0.4738 0.7082 0.535 0.6548 0.5096 0.6931 0.5848 0.6868 0.2974 0.5571 0.2531 0.3167 0.0091 0.05 0.0533 0.58 0.3663 0.6342 0.0672 0.3222 0.2893 0.405 0.5009 0.6856 0.3279 0.4667 0.2681 0.494 -1.0 -1.0 0.0021 0.175 0.2197 0.6
12.5344 26.0 2288 10.4449 0.2858 0.4949 0.2954 0.191 0.3275 0.3666 0.142 0.3613 0.4886 0.3864 0.5312 0.6736 0.5488 0.6726 0.4946 0.6841 0.5982 0.7158 0.2536 0.4429 0.256 0.3667 0.0035 0.0583 0.0957 0.58 0.3819 0.6177 0.038 0.4 0.2885 0.4019 0.4975 0.6802 0.3247 0.4444 0.2817 0.49 -1.0 -1.0 0.0015 0.175 0.2222 0.6
12.5344 27.0 2376 10.5696 0.2848 0.5067 0.3072 0.1958 0.3306 0.3707 0.1398 0.3585 0.492 0.3713 0.5444 0.6851 0.5364 0.6616 0.5001 0.6801 0.6067 0.7079 0.3179 0.5286 0.2572 0.375 0.007 0.0667 0.091 0.66 0.3871 0.6203 0.0478 0.3 0.2897 0.3992 0.4964 0.6896 0.2966 0.4222 0.2978 0.494 -1.0 -1.0 0.0012 0.175 0.1385 0.6
12.5344 28.0 2464 10.6176 0.2853 0.5035 0.3096 0.1949 0.3304 0.3639 0.1329 0.3858 0.4886 0.3558 0.5407 0.7019 0.5433 0.6644 0.5061 0.6859 0.602 0.7026 0.3147 0.5429 0.2489 0.3583 0.0041 0.0417 0.0717 0.64 0.3868 0.6342 0.0604 0.2778 0.2874 0.4002 0.5051 0.695 0.3014 0.4222 0.2856 0.488 -1.0 -1.0 0.0012 0.175 0.1614 0.6
11.8366 29.0 2552 10.5827 0.2833 0.5027 0.3071 0.1993 0.3317 0.355 0.1358 0.3625 0.4866 0.3758 0.5408 0.648 0.536 0.6603 0.5022 0.6816 0.5885 0.7132 0.3216 0.5286 0.2557 0.35 0.0078 0.0667 0.0491 0.62 0.3801 0.6329 0.0619 0.3444 0.2867 0.3989 0.5099 0.7045 0.3289 0.4556 0.2806 0.468 -1.0 -1.0 0.0007 0.075 0.1392 0.6
11.8366 30.0 2640 10.5255 0.28 0.4993 0.2974 0.2079 0.3297 0.3254 0.1378 0.36 0.4847 0.3734 0.544 0.6451 0.5284 0.6562 0.5023 0.6872 0.5925 0.6974 0.2781 0.5429 0.2486 0.35 0.0085 0.0667 0.0526 0.62 0.3821 0.6304 0.0567 0.3111 0.2855 0.3999 0.5044 0.6968 0.3226 0.4444 0.3012 0.492 -1.0 -1.0 0.0002 0.075 0.136 0.6

Framework versions

  • Transformers 4.51.3
  • Pytorch 2.7.0+cu126
  • Datasets 3.5.0
  • Tokenizers 0.21.1
Downloads last month
13
Safetensors
Model size
42.9M params
Tensor type
F32
ยท
Inference Providers NEW
This model isn't deployed by any Inference Provider. ๐Ÿ™‹ Ask for provider support

Model tree for alanahmet/rtdetr-v2-r50-cppe5-finetune-2

Finetuned
(6)
this model