Friday, 2 June , 2023
امروز : جمعه, ۱۲ خرداد , ۱۴۰۲
شناسه خبر : 19959
  پرینتخانه » مقالات خارجی شهرسازی تاریخ انتشار : 24 می 2023 - 4:30 | 12 بازدید | ارسال توسط :

پایان نامه پایداری، جلد. ۱۵، صفحات ۸۵۰۵: مدل استخراج پارامتر ترافیک با استفاده از تشخیص و ردیابی خودروهای کوچک در تصاویر هوایی با روشنایی کم

پایداری، جلد. ۱۵، صفحات ۸۵۰۵: مدل استخراج پارامتر ترافیک با استفاده از تشخیص و ردیابی خودروهای کوچک در تصاویر هوایی با روشنایی کم | ۲۰۲۳-۰۵-۲۴ ۰۴:۳۰:۰۰ دسترسی آزادمقاله مدل استخراج پارامتر ترافیک با استفاده از تشخیص و ردیابی خودروهای کوچک در تصاویر هوایی با روشنایی کم توسط جونلی لیو ۱، شیائوفنگ لیو ۱،۲، *، کیانگ […]

 پایداری، جلد.  15، صفحات 8505: مدل استخراج پارامتر ترافیک با استفاده از تشخیص و ردیابی خودروهای کوچک در تصاویر هوایی با روشنایی کم

پایداری، جلد. ۱۵، صفحات ۸۵۰۵: مدل استخراج پارامتر ترافیک با استفاده از تشخیص و ردیابی خودروهای کوچک در تصاویر هوایی با روشنایی کم
| ۲۰۲۳-۰۵-۲۴ ۰۴:۳۰:۰۰

مقاله

مدل استخراج پارامتر ترافیک با استفاده از تشخیص و ردیابی خودروهای کوچک در تصاویر هوایی با روشنایی کم

۱
دانشکده خودرو و حمل و نقل، دانشگاه فناوری و آموزش تیانجین، تیانجین ۳۰۰۲۲۲، چین
۲
مرکز تحقیقات مهندسی مشترک ملی و محلی برای همکاری هوشمند جاده ای خودرو و فناوری ایمنی، تیانجین ۳۰۰۲۲۲، چین
۳
مرکز ITS، موسسه تحقیقاتی وزارت حمل و نقل بزرگراه، پکن ۱۰۰۰۸۸، چین
*
نویسنده ای که مسئول است باید ذکر شود.
پایداری ۲۰۲۳، ۱۵(۱۱), ۸۵۰۵; https://doi.org/10.3390/su15118505
دریافت: ۲۵ آوریل ۲۰۲۳
/
بازبینی شده: ۱۷ مه ۲۰۲۳
/
پذیرش: ۲۲ مه ۲۰۲۳
/
تاریخ انتشار: ۲۴ مه ۲۰۲۳

(این مقاله متعلق به شماره ویژه است توسعه پایدار حمل و نقل)

خلاصه

:

شناسایی وسایل نقلیه با اندازه کوچک از منظر پهپاد، به ویژه در شرایط کم روشنایی، هنوز یک چالش است. در این زمینه، یک مدل YOLOX-IM-DeepSort پیشنهاد شد که عملکرد تشخیص شی را در شرایط کم روشنایی به طور دقیق و کارآمد بهبود بخشید. در مرحله تشخیص شی، این مدل الگوریتم افزایش داده و همچنین یک ماژول توجه فضای زیرفضایی فوق‌العاده سبک را در خود جای داده و تعداد سرهای تشخیص و عملکرد از دست دادن را بهینه می‌کند. سپس، آزمایش فرسایش انجام شد و نتایج تجزیه و تحلیل نشان داد که مدل YOLOX-IM دارای mAP بهتری نسبت به مدل پایه YOLOX-s برای تشخیص اشیا در مقیاس چندگانه است. در مرحله ردیابی شی، الگوریتم ردیابی شی DeepSort به مدل YOLOX-IM متصل می شود که می تواند داده های طبقه بندی خودرو، مسیر خودرو و سرعت خودرو را استخراج کند. سپس، مجموعه داده VisDrone2021 برای تأیید عملکرد تشخیص شی و ردیابی مدل پیشنهادی مورد استفاده قرار گرفت و نتایج آزمایش مقایسه نشان داد که میانگین دقت تشخیص وسیله نقلیه ۸۵٫۰۰٪ و میانگین دقت ردیابی خودرو ۷۱٫۳۰٪ در سطوح مختلف روشنایی است، هر دو. که بهتر از CenterNet، YOLOv3، FasterR-CNN، و CascadeR-CNN هستند. در مرحله بعد، یک آزمایش میدانی با استفاده از یک سیستم ماهواره ناوبری جهانی درون خودرو و یک پهپاد DJI Phantom 4 RTK در تیانجین، چین انجام شد و ۱۲ سناریوی آزمایشی کنترلی با ارتفاع پرواز پهپاد و سرعت وسیله نقلیه مختلف برای تجزیه و تحلیل اثر پرواز پهپاد طراحی شد. ارتفاع بر روی دقت استخراج سرعت. در نهایت نتیجه گیری و بحث ارائه شد.

۱٫ معرفی

نظارت بر ترافیک جاده‌ای پایه و اساس سیستم‌های حمل و نقل هوشمند (ITS) است که می‌تواند موقعیت‌های عملیات جاده‌ای مانند مسیر وسیله نقلیه، سرعت وسیله نقلیه و نوع وسیله نقلیه را بدست آورد. این برای کاهش بیشتر تراکم ترافیک و بهبود ایمنی ترافیک بسیار مهم است. در سال های اخیر، وسایل نقلیه هوایی بدون سرنشین (پهپاد) با دوربین های با وضوح بالا برای جمع آوری اطلاعات ترافیکی در زمان واقعی معرفی شده اند. [۱,۲]. پهپادها نسبت به آشکارسازهای ثابت (LIDAR، رادار موج میلی متری و آشکارسازهای حلقه القایی و غیره) انعطاف پذیری بیشتری برای ثبت داده های ترافیکی بلادرنگ دارند. علاوه بر این، با توسعه بینایی کامپیوتر و شبکه‌های عصبی یادگیری عمیق، پهپادها توجه فزاینده‌ای را در زمینه استخراج پارامترهای عملکرد خودرو به خود جلب کرده‌اند. با توجه به پوشش محدود جاده ها، دقت جمع آوری اطلاعات جاده های شهری توسط دوربین های ثابت ترافیک تنها بین ۵۰ تا ۷۵ درصد است. [۳]. با توجه به مزایای منحصر به فرد میدان دید گسترده و تحرک، دقت سیستم جمع آوری داده های جاده شهری مبتنی بر پهپاد بیش از ۸۰٪ است. [۴,۵].
تشخیص وسیله نقلیه یکی از مهمترین مراحل در دستیابی به نظارت بر ترافیک است. مدل‌های تشخیص مبتنی بر ظاهر و مبتنی بر حرکت دو روش اصلی برای تشخیص خودرو هستند. از آنجایی که اندازه، شکل و رنگ وسایل نقلیه همیشه متفاوت است، روش مبتنی بر ظاهر اغلب اتخاذ می شود. به عنوان مثال، تسای و همکاران. [۶] سه ویژگی مانند رنگ، لبه و نقاط گوشه را برای تشخیص کامل خودرو ترکیب کرده است. از آنجایی که تعداد سناریوها برای کاربردهای تشخیص وسیله نقلیه در حال افزایش است و الزامات برای ویژگی‌ها همچنان بهبود می‌یابد، توصیف‌کننده‌های ویژگی محلی وارد تفکر محققان می‌شوند. در میان آنها، هیستوگرام گرادیان جهت‌یافته (HOG)، الگوی باینری محلی (LBP)، Haar-like، Gabor، و سایر توصیفگرهای ویژگی محلی به طور گسترده در تشخیص خودرو استفاده می‌شوند. گنگ و همکاران [۷] ویژگی های HOG را بهبود بخشید و آنها را با ویژگی های LBP ترکیب کرد تا ویژگی های ترکیبی وسایل نقلیه را به دست آورد. ون و همکاران [۸] از روش استخراج ویژگی هار مانند برای نشان دادن لبه ها و ساختار وسایل نقلیه استفاده کرد. تانگ و همکاران [۹] از دو ویژگی Haar-like و Gabor به ترتیب برای مکان یابی وسایل نقلیه در تصاویر استفاده کرد. با این حال، وسایل نقلیه در جاده ها عموماً در حال حرکت هستند و علاوه بر اطلاعات ظاهری که می توان برای تشخیص خودرو استفاده کرد، روش های تشخیص مبتنی بر حرکت نیز معرفی شده است. جی و همکاران [۱۰] روش تفاوت بین قاب را با پنج فریم مجاور پیشنهاد کرد. ونگ و همکاران [۱۱] روش اختلاف سه فریم با تفریق پس‌زمینه را برای به دست آوردن نقشه مقیاس خاکستری معرفی کرد و سپس اجسام متحرک به طور مؤثر توسط الگوریتم مورفولوژیکی استخراج شدند. لیو و همکاران [۱۲] روش تفاوت سه فریم را با یک طبقه‌بندی کننده Adaboost که با ویژگی‌های Haar مانند آموزش داده شده بود، ترکیب کرد تا وسایل نقلیه در حال حرکت را شناسایی کند. علاوه بر این، شناسایی وسایل نقلیه کوچک در تصاویر هوایی چالش مهمی را به همراه دارد. ژانگ و همکاران [۱۳] پیچیدگی قابل تغییر شکل را به شبکه ستون فقرات معرفی کرد [۱۴] برای کمک به مدل برای یادگیری کارآمد قابلیت‌های تبدیل هندسی برای بهبود عملکرد تشخیص اشیای کوچک از طریق بهبود و بهبود داده‌ها. تیان و همکاران [۱۵] یک رویکرد مبتنی بر شبکه عصبی دوگانه برای تشخیص اجسام کوچک ارائه کرد. این روش از یک مکانیسم تشخیص ثانویه برای بهینه سازی تشخیص اشیاء با اطمینان کم و تشخیص از دست رفته استفاده می کند. با این حال، دقت تشخیص این الگوریتم‌های سنتی تا حد زیادی تحت تأثیر فاصله تشخیص شی و همچنین پس‌زمینه پیچیده است، بنابراین الگوریتم‌های فوق فقط برای سناریوهای تشخیص با اشکال هدف مشابه و پس‌زمینه ثابت مناسب هستند. پس‌زمینه تصویر هوایی گسترده‌تر است و انواع بیشتری از وسایل نقلیه وجود دارد، بنابراین این الگوریتم‌های سنتی برای نظارت بر ترافیک مبتنی بر پهپاد مناسب نیستند.
در سال‌های اخیر، با توسعه یادگیری عمیق، نوآوری مدل‌های شبکه عصبی عمیق، ایده‌های جدیدی را برای تشخیص اشیا باز کرده است و دقت تشخیص اشیا را تا حد زیادی بهبود بخشیده است. در میان آنها، شبکه های تشخیص شی دو مرحله ای R-CNN [16]، سریع-RCNN [17]Faster-RCNN [18]و غیره و شبکه های تشخیص تک مرحله ای YOLO، SSD و … در تشخیص اشیا به پیروزی های بزرگی دست یافته اند. R-CNN، به عنوان پیشگام تشخیص دو مرحله ای، از یک الگوریتم جستجوی انتخابی برای پیشنهاد یک سری مناطق مورد علاقه (RoI) استفاده می کند که ممکن است در مرحله اول شامل یک هدف باشد. علاوه بر این، در مرحله دوم، از CNN برای استخراج ویژگی‌های عمیق در مناطق، طبقه‌بندی و بومی‌سازی آنها استفاده می‌شود. Fast-RCNN موقعیت لایه کانولوشن را در جلو قرار می دهد و فرآیند استخراج ویژگی هر ROI را از طریق رابطه نگاشت موقعیت بین تصاویر و ویژگی ها به بردار ویژگی تبدیل می کند که میزان محاسبه و زمان محاسبه را در مرحله دوم کاهش می دهد. Fast-RCNN و Faster-RCNN به ترتیب زمان محاسبات مرحله اول و دوم را بر اساس R-CNN کوتاه می کنند، اما محاسبات برای تعداد زیادی از مناطق اضافی به طور اجتناب ناپذیری کارایی تشخیص را کاهش می دهد، بنابراین این الگوریتم ها در طول مدت عملکرد خوبی ندارند. سناریوهای نظارت بر ترافیک در زمان واقعی
الگوریتم YOLO [19] یک کار نماینده الگوریتم های تشخیص یک مرحله ای است. ابتدا تصویر را به شبکه‌هایی با اندازه‌های مساوی اما وضوح‌های متفاوت تقسیم می‌کند و قاب‌های لنگر با اندازه‌ها و شکل‌های مختلف را در راس آنها قرار می‌دهد. این قاب‌های لنگر با ویژگی‌های استخراج‌شده توسط CNN رابطه نگاشت موقعیت دارند و امکان پیش‌بینی و رگرسیون ویژگی‌ها را برای به دست آوردن کلاس‌ها و موقعیت‌های هدف در قاب‌های لنگر فراهم می‌کنند. الگوریتم YOLO مناطق غیر کمیت و به شدت زائد را در الگوریتم‌های دو مرحله‌ای با تعداد ثابتی از فریم‌های لنگر جایگزین می‌کند، که به طور قابل‌توجهی کارایی تشخیص را بهبود می‌بخشد و با تشخیص بلادرنگ مواجه می‌شود. لی و همکاران [۲۰] یک الگوریتم تشخیص وسیله نقلیه چند شی را بر اساس YOLOv2 برای سناریوهای مختلف جاده پیشنهاد کرد. لین و همکاران [۲۱] شبکه هرمی ویژگی (FPN) را پیشنهاد کرد که به طور موثری عملکرد تشخیص اشیاء کوچک را با ترکیب اطلاعات معنایی سطح بالا با اطلاعات معنایی سطح پایین بهبود می بخشد. وان و همکاران [۲۲] روشی به نام YOLT برای تشخیص اشیا در مقیاس چندگانه در تصاویر ماهواره ای با تغییر YOLOv2 پیشنهاد کرد. یانگ و همکاران [۲۳] SCRDet را برای گرفتن موثر اجسام کوچک در پس‌زمینه‌های پیچیده در تصاویر هوایی پهپاد و همچنین پرداختن به تنوع جهت‌های جسم پیشنهاد کرد. راجپوت و همکاران [۲۴] یک الگوریتم تشخیص چند وسیله نقلیه مبتنی بر YOLOv3 برای تشخیص چند وسیله نقلیه در سناریوهای ترافیکی پیچیده مانند پارکینگ‌ها، جاده‌های شهری و بزرگراه‌ها پیشنهاد کرد. ژانگ و همکاران [۲۵] یک روش بهبود یافته برای تشخیص وسیله نقلیه در سناریوهای مختلف ترافیک بر اساس یک شبکه بهبودیافته YOLO v5 پیشنهاد کرد. روش پیشنهادی از الگوریتم Flip-Mosaic برای افزایش درک شبکه از اهداف کوچک استفاده می‌کند. این مطالعات اثربخشی مدل‌های سری YOLO را برای تشخیص اشیا در سناریوهای ترافیکی تأیید کرده‌اند، اما هیچ توجه جامعی در مورد چگونگی متعادل کردن دقت و کارایی تشخیص اشیاء وجود ندارد و همچنین هیچ بحثی در مورد شرایط ویژه برای سناریوهای ترافیک وجود ندارد.
به طور خلاصه، استراتژی های مختلفی برای بهبود دقت تشخیص وسیله نقلیه اتخاذ شده است، با این حال، تعادل بین کارایی و دقت تشخیص اشیا هنوز یک چالش است. در این شرایط، مدل های سبک وزن ارزش مطالعه بیشتر را دارند. علاوه بر این، مطالعات فوق عمدتاً تشخیص و ردیابی خودرو را در شرایط با روشنایی بالا انجام می دهند. چند آزمایش کم روشنایی برای تأیید عملکرد مدل اجرا شده است. علاوه بر این، با افزایش ارتفاع پهپاد، اندازه هدف شناسایی شده کاهش می‌یابد و به ندرت تأثیر ارتفاع پهپاد بر دقت تشخیص در نظر گرفته می‌شود.
مشارکت های این مطالعه به شرح زیر است:
(۱)
افزایش داده ها این مقاله مجموعه داده‌های تصویر هوایی با روشنایی کم را با استفاده از استراتژی‌های افزایش داده، مانند الگوریتم فرا استنتاج به کمک برش (SAHI)، ماتریس تصحیح مختصات، اغتشاش HSV و افزایش روشنایی، گسترش می‌دهد که استحکام و توانایی تعمیم مدل را افزایش می‌دهد. در شناسایی اهداف کوچک با پس زمینه پیچیده.
(۲)
بهینه سازی مدل در این مقاله، یک الگوریتم تشخیص خودرو YOLOX-IM بهبود یافته پیشنهاد شده است. به منظور متعادل کردن کارایی و دقت تشخیص، این مدل ماژول توجه فضای زیرفضایی بسیار سبک (ULSAM) را در شبکه تجمع مسیر (PAN) ترکیب می‌کند. علاوه بر این، برای دستیابی به یک مدل سبک وزن، تابع تلفات رگرسیون مرزی بهینه شده است و از تابع تلفات SIoU برای بهینه‌سازی مدل استفاده می‌شود که رگرسیون مرزی را سریع‌تر و دقیق‌تر می‌کند.
(۳)
تأیید آزمایش میدانی مدل شناسایی شی YOLOX-IM با مدل ردیابی هدف DeepSort متصل می‌شود و سپس یک الگوریتم تخمین سرعت خودرو برای ساخت یک مدل استخراج پارامتر ترافیک مبتنی بر پهپاد ترکیب می‌شود. در این مطالعه، وسایل نقلیه آزمایشی مجهز به سیستم‌های ماهواره‌ای ناوبری جهانی (GNSS) و تشخیص روی برد (OBD) به‌ویژه برای جمع‌آوری پارامترهای ترافیک واقعی برای تأیید صحت و کاربرد مدل پیشنهادی استفاده می‌شوند. علاوه بر این، اثر ارتفاع پرواز پهپاد بر دقت استخراج پارامتر ترافیک تحلیل می‌شود.
بقیه این مقاله به شرح زیر سازماندهی شده است: بخش ۲ مدل YOLOX-s و استراتژی پردازش مجموعه داده های تصویر هوایی با روشنایی کم را معرفی می کند. که در بخش ۳، مدل شناسایی و ردیابی چند شی YOLOX-IM-DeepSort پیشنهاد شده است و پیشرفت ها مشخص شده است. بخش ۴ شرحی از طرح آزمایشی ارائه می دهد و نتیجه تأیید آزمایش را انجام می دهد. در نهایت، در بخش ۵ و بخش ۶، نتیجه گیری و بحث به ترتیب ارائه شده است.

۲٫ مدل پایه و پردازش مجموعه داده

۲٫۱٫ مدل YOLOX-s

چارچوب تشخیص شی YOLOX در سال ۲۰۲۱ پیشنهاد شد [۲۶]و یک مدل رقابتی در مسابقات تشخیص اشیا است. تشخیص اجسام کوچک به دلیل وضوح کم و اندازه کوچک دشوار است. از سوی دیگر، معماری الگوریتم YOLOX-s، تعداد نقاط بدون لنگر و تقاطع-بر-اتحادیه (IOU) را بهبود می بخشد، که نقشه ویژگی را آموزنده تر می کند. نه تنها این، ترکیبی از نمونه برداری پایین و نمونه برداری استفاده شده در این معماری، وضوح نمونه برداری از نقشه ویژگی را بهبود می بخشد، که در نهایت منجر به افزایش بیشتر تشخیص اشیاء کوچک می شود. به منظور بهبود دقت و سرعت تشخیص اشیا، این مقاله از مدل YOLOX-s به عنوان مدل پایه استفاده می کند.
تاریکنت جزئی متقاطع (CSPDarknet) شبکه استخراج ویژگی ستون فقرات YOLOX-s است که از پنج بخش DARK1، DARK 2، DARK 3، DARK 4 و DARK 5 تشکیل شده است. ساختار شبکه ستون فقرات در نشان داده شده است. شکل ۱; اندازه نقشه ویژگی با کاهش نمونه بین هر بخش نصف می شود، در حالی که تعداد کانال های بین هر بخش دو برابر می شود. CSPDarknet از ماژول فوکوس استفاده می کند [۲۷]، شبکه باقیمانده [۲۸]شبکه جزئی متقاطع (CSPnet) [29]و استخر هرمی فضایی (SPP) [30] برای استخراج ویژگی های تصویر در میان آنها، ماژول فوکوس تعداد پارامترهای اضافه شده را کاهش می دهد و بدون از دست دادن اطلاعات، کارایی عملیاتی را افزایش می دهد. شبکه باقیمانده با افزایش عمق شبکه عصبی با مشکل ناپدید شدن گرادیان سروکار دارد. CSPnet توانایی شبکه برای یادگیری ویژگی‌ها را افزایش می‌دهد و در عین حال حجم کاری را کاهش می‌دهد. ماژول SPP از حداکثر عملیات ادغام هسته های مختلف برای بهبود میدان ادراکی شبکه استفاده می کند. فرآیند تشخیص شی YOLOX-S به شرح زیر است. ابتدا، تصاویر برای استخراج ویژگی از طریق CSPDarknet به شبکه ستون فقرات وارد می شوند. سپس، نقشه‌های ویژگی مؤثر به ساختار گردن منتقل می‌شوند و ویژگی‌ها توسط PAN افزایش می‌یابند تا نقشه‌های ویژگی بهبود یافته سه لایه به دست آید. در اینجا، شبکه‌های هرمی ویژگی (FPN) اطلاعات معنایی سطح بالا را در نقشه‌های ویژگی‌های کم عمق منتشر می‌کنند و اطلاعات معنایی را در مقیاس‌های چندگانه افزایش می‌دهند، اما با اطلاعات محلی سازی ضعیف اشیا. بنابراین، یک مسیر از پایین به بالا به PAN اضافه می‌شود که اطلاعات مکانی غنی را از نقشه‌های ویژگی کم عمق به سطح بالاتر منتقل می‌کند و مکان‌یابی هدف را در مقیاس‌های مختلف افزایش می‌دهد. در نهایت، هد جدا شده سه نقشه ویژگی پیشرفته را طبقه بندی و پسرفت می کند، که سرعت همگرایی و دقت تشخیص را بهبود می بخشد.

۲٫۲٫ استراتژی پردازش برای مجموعه داده تصویر هوایی

تصاویر هوایی واقعی شامل تصاویر روز و شب و همچنین تصاویر هوایی از شرایط آب و هوایی خاص مانند باران، مه، آسمان ابری و غیره است. حجم و توزیع داده ها بر جهت و نتیجه تمرین مدل YOLOX-s تأثیر می گذارد. ، بنابراین لازم است مجموعه داده مناسب با توجه به سناریوهای برنامه انتخاب شود. مجموعه داده های هواپیماهای بدون سرنشین بزرگراه [۳۱] و مجموعه داده Visdrone [32] برای آموزش و آزمایش مدل تشخیص اشیا در تصاویر هوایی، که تصاویر هوایی چند زاویه ای هستند، استفاده شده اند و بنابراین برای تشخیص و نظارت بر اشیاء ترافیکی مناسب تر از سایر مجموعه داده های رایج موجود هستند. تأثیر روشنایی های مختلف در تشخیص اشیا قابل توجه است. تنها با استفاده از مجموعه داده پایه برای آموزش مدل، تأثیر روشنایی کم در تشخیص اشیا نادیده گرفته می شود. تقویت داده ها یک استراتژی رایج برای آموزش مدل های YOLOX-S است تا به گسترش تنوع داده ها، افزایش تعمیم شبکه و اجتناب از آموزش شبکه به حداقل تلفات محلی کمک کند. [۳۳]. اغتشاش دامنه HSV [34] به طور تصادفی رنگ، اشباع، کنتراست و درخشندگی تصویر را با احتمال ۵۰% در طول آموزش تغییر می دهد، توزیع رنگ تصاویر در مجموعه داده را گسترش می دهد و باعث می شود که مدل تعمیم به رنگ و تغییرات درخشندگی تصویر را افزایش دهد، همانطور که در نشان داده شده است. شکل ۲.
با اغتشاش تصادفی در حوزه HSV، تغییرات متعدد در رنگ و روشنایی هر تصویر به دست می آید. اگرچه توزیع رنگ و نور مجموعه داده گسترش یافته است، اما تصاویر آشفته هنوز فاصله زیادی با تصاویر هوایی در شب دارند. به همین دلیل، این مطالعه شکاف بین روشنایی تصاویر در روز و شب را تجزیه و تحلیل می‌کند و با تنظیم روشنایی تصویر در تمرین، شکاف را با تشخیص واقعی جبران می‌کند. بخش ۳.

۳٫ روش ها و مواد استخراج پارامتر ترافیک

فرآیند استخراج پارامتر ترافیک در شرح داده شده است شکل ۳. این مدل ابتدا تصاویر پهپاد را تحت طرح‌های مختلف پیش پردازش می‌کند، سپس به مدل بهینه‌سازی برای تشخیص و ردیابی اشیا خروجی می‌دهد و در نهایت، پارامترهای عملیات ترافیک وسایل نقلیه مورد نظر را استخراج می‌کند.

۳٫۱٫ پیش پردازش تصویر

۳٫۱٫۱٫ افزایش داده های دامنه HSV

واضح ترین تفاوت بین تصاویر هوایی در شب و روز، روشنایی است. با مقایسه روشنایی مجموعه آموزشی و تصاویر مجموعه تست در دامنه HSV در مجموعه داده Visdrone2021، میانگین مقدار روشنایی تمام تصاویر در طول روز در مجموعه آزمایشی ۱۱۲٫۸۶ است که برابر با مجموعه آموزشی است، در حالی که مقدار میانگین روشنایی تصاویر شب ۶۳٫۶۶ است. همانطور که در نشان داده شده است، یک هیستوگرام نرمال شده از میانگین روشنایی تصویر در مجموعه آزمایشی مقایسه شد شکل ۴.
همانطور که در نشان داده شده است شکل ۴، تفاوت بین میانگین روشنایی تصویر شب و روشنایی تصویر روز در ۹۳٫۷۵ بیشترین میزان است، یعنی تنها ۸٫۰۵٪ از کل تصاویر در روز دارای میانگین روشنایی کمتر از ۹۳٫۷۵ هستند و ۱۰٫۳۸٪ از کل تصاویر در شب دارای روشنایی هستند. روشنایی متوسط ​​بیشتر از ۹۳٫۷۵٫ تنظیم روشنایی همه تصاویر به ۹۳٫۷۵ در حین آموزش نه تنها روشنایی غروب را شبیه سازی می کند، بلکه تعمیم تشخیص اشیا را در مدل در روشنایی کم افزایش می دهد. به طور خاص، پردازش روشنایی برای قضاوت در مورد شرایط روشنایی تصویر از طریق میانگین روشنایی قبل از استنتاج، و تنظیم روشنایی آن به ۹۳٫۷۵ برای شبیه‌سازی تصویر در یک صحنه غروب انجام می‌شود. از آنجایی که تنظیم روشنایی در وسعت رنگ RGB نیاز به محاسبه روشنایی تصویر قبل از تنظیم مقادیر R، G و B دارد، مقدار روشنایی را می توان مستقیماً در دامنه HSV تنظیم کرد. به منظور کاهش دقت در فرآیند محاسبه و زمان اضافی مورد نیاز برای محاسبه روشنایی، YOLOX-IM پردازش روشنایی را در دامنه HSV قرار داده و آن را همراه با اختلالات HSV انجام می دهد که در مجموع به عنوان افزایش داده دامنه HSV نامیده می شود.
علاوه بر کاهش فاصله روشنایی بین تصاویر در روز و شب، بهبود داده های دامنه HSV نوردهی بیش از حد ناشی از روشنایی بیش از حد نورها را نیز تضعیف می کند. شکل ۵ نشان می دهد که میانگین روشنایی برخی از تصاویر شبانه بین ۱۰۵ تا ۱۲۷٫۵ است که ناشی از مقدار زیاد چراغ خودرو و روشنایی جاده در شب است. تصاویر گرفته شده در طول روز دارای نورهای کمتر قابل مشاهده و کمتر یا بدون نوردهی بیش از حد هستند. بنابراین، ویژگی‌هایی که شبکه عصبی پس از آموزش در یک مجموعه آموزشی که فقط حاوی تصاویر در طول روز است، آموخته می‌شود تا وسایل نقلیه کامل یا عابران پیاده را به تصویر بکشد. روشنایی چراغ‌های خودرو در تصاویر گرفته شده در شب با محیط اطرافشان بسیار متفاوت است و شکل خودروها توسط نورها و جلوه‌های هاله خراب می‌شود، که شبکه عصبی را برای جا دادن وسایل نقلیه در شب دشوار می‌کند و مدل را ضعیف می‌کند. تعمیم یافته است. استراتژی افزایش روشنایی دامنه HSV ارائه شده در این مقاله، مقدار میانگین روشنایی تصاویر را به ۹۳٫۷۵ یکسان می کند، به طوری که تصاویر روشن تر در شب روشنایی کمتر و تصاویر تیره تر در طول روز روشنایی بالاتری دارند، بنابراین تداخل روشنایی در تشخیص اشیا کاهش می یابد. . اثر خاص افزایش داده های دامنه HSV در نشان داده شده است شکل ۵.

۳٫۱٫۲٫ تبدیل مختصات هدف در تصاویر

نگرش باد و پهپاد می‌تواند منجر به تغییرات هماهنگ و شبح‌سازی تصویر هدف (یا نقاط نشانگر جاده) در فیلم هوایی پهپاد شود. بنابراین، تبدیل مختصات برای پیش پردازش هدف در فیلم هوایی مورد نیاز است [۳۵].
(۱) تبدیل مختصات: این مقاله با استفاده از نقاط نشانگر مصنوعی به عنوان رسانه، تبدیل لازم مختصات و مختصات دنیای واقعی تصاویر ویدئویی را انجام می دهد. تبدیل مختصات را می توان با ایجاد رابطه معادله بین مختصات نشانگر در دنیای واقعی و مختصات نشانگر مصنوعی در تصویر به دست آورد. [۳۶]، و مدل تغییر مختصات در رابطه (۱) نشان داده شده است:

تو v پ = تی * ایکس ۰ y ۰ z ۰ = آ D جی ب E اچ سی اف من * ایکس ۰ y ۰ z ۰
در معادله (۱)

u v p are the coordinates of the target in the real world. x ۰ y ۰ z ۰ are the coordinates of the target in the video made by using the reference system. T is the transformation matrix between real-world coordinates and video image coordinates. In the experiments of this paper, the maximum height of the UAV is less than 120 m, the selected road length is less than or equal to 150 m, and the ratio of road length and flight height of the UAV is much larger than the slope difference, so the spatial three-dimensional problem can be converted into a planar transformation calculation, that is, C , F , and I in matrix T are equal to 0, 0, and 1 [37]، به ترتیب. بنابراین، معادله (۱) را می توان به صورت معادله (۲) نوشت:

تو v ۱ = تی * ایکس ۰ y ۰ ۱ = آ D جی ب E اچ ۰ ۰ ۱ * ایکس ۰ y ۰ ۱

جایی که آ ، ب ، D ، E ، جی ، و اچ پارامترهایی هستند که باید تعیین شوند. حداقل سه نقطه نشانگر متناظر برای تعیین ماتریس مورد نیاز است. هر چه نقاط نشانگر بیشتر باشد، ماتریس تبدیل قوی تر خواهد بود. در حالت ایده آل، اگر علائم کافی در جاده وجود داشته باشد، معادله ماتریس تبدیل بین مختصات واقعی و مختصات تصویر ویدئویی را می توان از طریق ماتریس به دست آمده توسط رابطه (۲) ساخت.

(۲) تصحیح تصویر: با توجه به تغییر نیروی باد یا حالت نگرش تطبیقی ​​پهپاد، پهپاد به ناچار در هنگام شناور شدن حرکت می کند و تکان می خورد. بنابراین، رابطه تبدیل باید تعیین شود تا مختصات متغیر با زمان بین فریم های مختلف ویدیو را یکسان کند و آن را به عنوان تصحیح تصویر تعریف کند. از معادله (۳) می توان برای نشان دادن فرآیند تبدیل استفاده کرد:

ایکس n y n ۱ = دبلیو * ایکس ۰ y ۰ ۱ = آ ۱ آ ۲ آ ۳ آ ۴ آ ۵ آ ۶ ۰ ۰ ۱ * ایکس ۰ y ۰ ۱

جایی که

x ۰ y ۰ is the coordinate of the reference coordinate system N ۰ (initial point) and x n y n is the coordinate of the nth coordinate system. W is the transformation matrix, which consists of 6 parameters. a ۱ to a ۶ need to be determined by the fixed markers in the different images. Therefore, the aerial video images need to be corrected by the above two transformation matrices to improve the accuracy of subsequent object detection.

۳٫۱٫۳٫ Small Target Data Enhancement Strategy

Traditional detection methods are not effective in detecting small objects, and Akyon et al. [38] روش Slicing-Aided Hyper Inference (SAHI) را برای بهبود توانایی تشخیص اجسام کوچک با تقسیم کردن تصویر به چند برش همپوشانی ارائه کرد تا اجسام کوچک پیکسل های بیشتری را در این برش ها اشغال کنند. این مقاله از SAHI برای برش هر تصویر در مجموعه آموزشی به ۱۶۰ تصویر برش خورده با ۶۴۰ × ۶۴۰ پیکسل های همپوشانی استفاده می کند و سپس تصاویر برش شده را که فقط حاوی پس زمینه هستند حذف می کند.
افزایش داده ها می تواند تعداد و تنوع نمونه های آموزشی را افزایش دهد و استحکام مدل را بهبود بخشد. اعوجاج فتومتریک و اعوجاج هندسی دو روش متداول افزایش داده ها هستند. اعوجاج فتومتریک روشنایی، رنگی بودن، کنتراست و اشباع تصویر را تنظیم می کند. برای انجام اعوجاج هندسی، تصاویر می توانند به طور تصادفی مقیاس شوند، برش داده شوند، چرخانده شوند، چرخانده شوند، یا تغییر شکل دهند.
روش های دیگری برای افزایش داده ها مانند Cutout وجود دارد [۳۹]مخلوط کردن [۴۰]کات میکس [۴۱]، و موزاییک [۴۲]. Cutout به طور تصادفی یک منطقه مربعی از تصویر آموزشی را برش می دهد و تصویر را با پر کردن صفر برش می دهد. Mixup به طور تصادفی دو نمونه و برچسب های مربوط به آنها را در مجموعه داده انتخاب می کند و آنها را با استفاده از نسبت خاصی برای تولید نمونه ها و برچسب های جدید جمع می کند. CutMix به طور تصادفی دو تصویر را از مجموعه داده انتخاب می کند و سپس قسمت برش خورده یک تصویر را روی دیگری قرار می دهد. موزائیک به طور تصادفی چهار تصویر را برش می دهد و سپس آنها را به یک تصویر جدید می چسباند که پس زمینه تصویر را غنی می کند. این مطالعه از اعوجاج فتومتریک، اعوجاج هندسی، الگوریتم Mixup و الگوریتم موزاییک برای افزایش داده های هدف کوچک استفاده می کند.

۳٫۲٫ بهبود در مدل تشخیص شی

۳٫۲٫۱٫ مکانیسم توجه بهبود یافته

مکانیسم توجه مشابه مکانیسم توجه بصری انسان با استخراج ویژگی های کلیدی از مجموعه بزرگتری از ویژگی ها عمل می کند. با تمرکز انتخابی بر روی ویژگی های مهم و کاهش یا نادیده گرفتن ویژگی های بی اهمیت، مکانیسم توجه می تواند عملکرد شبکه را افزایش دهد. اگرچه مکانیسم توجه موجود می تواند به طور موثر عملکرد شبکه را بهبود بخشد، نیاز به توان حسابی را افزایش می دهد و برای شبکه های سبک وزن قابل استفاده نیست. به این منظور، ساینی و همکاران. [۴۳] ULSAM پیشنهادی، که می تواند به طور موثر اطلاعات بین کانالی را در زیرفضاهای ویژگی با تعداد پارامترهای کاهش یافته یاد بگیرد. ساختار ULSAM در نشان داده شده است شکل ۶. نگاشت ویژگی های ورودی به پارتیشن بندی می شوند جی فضاهای فرعی متقابل منحصر به فرد در کانال، هر کدام با جی نگاشت ویژگی ها، و نگاشت توجه متفاوت برای هر زیرفضا مشتق شده است.
در این مقاله، ULSAM برای برجسته کردن ویژگی‌های شی و تضعیف ویژگی‌های پس‌زمینه به ساختار PAN اضافه می‌شود. سپس، ویژگی‌های شی بهبود یافته برای طبقه‌بندی و رگرسیون وارد هد جدا شده می‌شوند که به طور موثر دقت تشخیص را بهبود می‌بخشد. ساختار گردن بهبود یافته در نشان داده شده است شکل ۷.

۳٫۲٫۲٫ انتخاب تابع از دست دادن

YOLOX از ضرر IoU استفاده می کند [۴۴] به عنوان تابع از دست دادن رگرسیون مرزی. ضرر IoU به صورت زیر تعریف می شود:
L من o U = ۱ ب ب g تی ب ب g تی
اینجا، ب نشان دهنده کادر محدود کننده و ب g تی مقدار واقعی را نشان می دهد. با این حال، از دست دادن IoU دو اشکال دارد: اول، زمانی که جعبه مرزی مقدار واقعی را قطع نمی کند. L من o U یک مقدار ثابت ۱ و گرادیان ۰ است که می تواند منجر به پارامترهایی شود که نمی توانند بهینه شوند. ثانیاً، هنگامی که تقاطع کادر مرزی و مقدار واقعی ثابت است، IoU نمی تواند نحوه تلاقی دو کادر را منعکس کند. بنابراین، این مقاله جایگزین SIoU می شود [۴۵] ضرر با از دست دادن IoU برای بهبود سرعت آموزش و دقت پیش‌بینی شبکه. SIoU زاویه برداری بین مقدار واقعی و جعبه مرزی را معرفی می کند و تابع افت را که از چهار جزء تشکیل شده است، دوباره تعریف می کند: افت زاویه، کاهش فاصله، از دست دادن شکل و از دست دادن IoU. افت زاویه ای به صورت زیر تعریف می شود:

L = ۱ ۲ * س من n ۲ ( آ r ج س من n ( ج ساعت پ ) پی ۴ )
پ = ( ب ج ایکس g تی ب ج ایکس ) ۲ + ( ب ج y g تی ب ج y ) ۲
ج ساعت = متر آ ایکس ( ب ج y g تی ، ب ج y ) متر من n ( ب ج y g تی ، ب ج y )
اینجا، پ فاصله بین مقدار واقعی و مرکز مرزی است، ج ساعت اختلاف ارتفاع بین مقدار واقعی و مرکز مرزی است، ب ج ایکس g تی ، ب ج y g تی مختصات مرکزی حقیقت زمینی هستند و ب ج ایکس ، ب ج y مختصات مرکزی جعبه مرزی هستند. از دست دادن فاصله به صورت زیر تعریف می شود، جایی که ج w و ج ساعت به ترتیب حداقل مستطیل بیرونی حقیقت زمین و عرض و ارتفاع جعبه مرزی هستند:

D = تی = ایکس ، y ( ۱ ه ج r تی ) )
r ایکس = ( ب ج ایکس g تی ب ج ایکس ج w ) ۲ ، r y = ( ب ج y g تی ب ج y ج ساعت ) ۲ ، ج = ۲ L
از دست دادن شکل به صورت زیر تعریف می شود:

اوه = تی = w ، ساعت ( ۱ ه ( w تی ) ) من
اوه w = | w w g تی | متر آ ایکس ( w ، w g تی ) ، اوه ساعت = | ساعت ساعت g تی | متر آ ایکس ( ساعت ، ساعت g تی )

جایی که ( w ، ساعت ) و ( w g تی ، ساعت g تی ) به ترتیب عرض و ارتفاع جعبه مرزی و حقیقت زمین هستند و من درجه توجه به از دست دادن شکل را با مقادیری از ۲ تا ۶ کنترل می کند.

از دست دادن IoU به صورت زیر تعریف می شود، جایی که ب جعبه مرزی است و ب g تی حقیقت زمینی است:

من o U = | ب ب g تی | | ب ب g تی |
SIoU نهایی به شرح زیر است:

L اس من o U = ۱ من o U + ( D + اوه ) ۲
SIoU با معرفی زوایای برداری بین رگرسیون ها، تابع تلفات را دوباره تعریف می کند، که به طور موثر آموزش را سرعت می بخشد و دقت استنتاج را بیشتر بهبود می بخشد.

۳٫۲٫۳٫ بهبود در ساختار شبکه

از مجموعه داده VisDrone2021 [46] دارای اجسام کوچک بسیاری است، سه سر جدا شده YOLOX-s می تواند منجر به تعداد زیادی تشخیص نادرست و گم شده در هنگام تشخیص این اشیا شود. در مقابل، نقشه ویژگی های کم عمق دارای میدان درک کمتر و اطلاعات مکانی قوی تری است که برای تشخیص اجسام کوچک مناسب است. شبکه ستون فقرات YOLOX-s ویژگی‌ها را از طریق CSPDarknet استخراج می‌کند و پس از ۵ دور پایین‌نمونه‌سازی برای به دست آوردن یک نقشه ویژگی ۵ لایه {سی۱، سی۲، سی۳، سی۴، سی۵}، تعداد کانال ها دو برابر می شود در حالی که اندازه نقشه ویژگی به نصف کاهش می یابد. نقشه ویژگی سی۱ حاوی اطلاعات دقیق تر است، اما همچنین حاوی سطوح بالایی از نویز و اطلاعات پس زمینه است. بنابراین، در روش پیشنهادی، نقشه ویژگی سطح پایین با وضوح بالا سی۲ به FPN معرفی شده است، و نقشه های ویژگی موثر درجه سوم {سی۳، سی۴، سی۵} با ویژگی‌های انتقال یافته از بالا به پایین ترکیب می‌شوند و این روش‌ها نمایش معنایی را در مقیاس‌های چندگانه با انتقال ویژگی‌های معنایی قوی از سطح بالا به سطوح کم عمق افزایش می‌دهند. این نقشه های ویژگی پیشرفته {پ۲، پ۳، پ۴، پ۵} ویژگی های مکانی قوی نقشه های ویژگی های کم عمق را به سطوح بالاتر به روشی از پایین به بالا منتقل می کند و قابلیت محلی سازی را در مقیاس های چندگانه بهبود می بخشد. علاوه بر این، یک سر جداکننده برای تشخیص اجسام کوچک اضافه شده است و ساختار شبکه بهبود یافته در آن نشان داده شده است شکل ۷.
همانطور که در نشان داده شده است شکل ۷ساختار شبکه ستون فقرات مدل YOLOX-IM از CSPDarknet برای استخراج نقشه‌های ویژگی چند مقیاسی استفاده می‌کند و از PAN و ULSAM برای بهبود نقشه‌های ویژگی چند مقیاسی در لایه گردن استفاده می‌کند، به طوری که FPN با آن ترکیب می‌شود. سی۲ بدست آوردن پ۲، و پ۲ برای به دست آوردن از پایین به بالا ذوب می شود n2; n2 و پ۲ با مربع های قرمز مشخص می شوند. ساختار ULSAM بعد از ساختار PAN اضافه می شود تا اطلاعات پس زمینه پیچیده را تضعیف کند، همانطور که در کادر قرمز نشان داده شده است. در لایه پیش‌بینی، کادرهای قرمز رنگ نشان دهنده اضافه شدن سر جداشده برای تشخیص اشیای کوچک است.

۳٫۳٫ الگوریتم ردیابی هدف

این مطالعه از الگوریتم ردیابی چند هدفه DeepSort استفاده می کند [۴۷]، که از معیارهای قابل اعتماد تری نسبت به الگوریتم ردیابی مرتب سازی استفاده می کند، به جای معیارهای همبستگی، در نتیجه استحکام شبکه را در مورد اشیاء گم شده و نادرست افزایش می دهد. معماری الگوریتم DeepSort در نشان داده شده است شکل ۸. شایان ذکر است که مقدار ورودی DeepSort مقدار خروجی مدل YOLOX-Im در بالا است.
الگوریتم DeepSort شامل مراحل زیر است: مجموعه تشخیص تناسب خودرو و مجموعه آهنگ را وارد کنید تا bbox را دریافت کنید، سپس مجموعه داده Detections را ایجاد کنید و مجموعه داده را ردیابی کنید. مرحله دوم پیش‌بینی کالمن است – با توجه به مجموعه مسیر تاریخچه خودرو، موقعیت خودرو تنظیم شده در قاب n قابل پیش‌بینی است. از الگوریتم مجارستانی برای تطبیق مسیرهای پیش‌بینی‌شده با تشخیص‌های موجود در قاب فعلی استفاده کنید (تطبیق آبشار و تطبیق IOU). به روز رسانی فیلتر کالمن، که داده های مکانی-زمانی به روز شده وسیله نقلیه را که متشکل از داده های متغیر زمانی و داده های مختصات خودرو است، خروجی می دهد.

۳٫۴٫ داده های خروجی

(۱) داده های طبقه بندی خودرو. با استفاده از مدل YOLOX-IM، اشیاء خودرو را در قاب تشخیص دهید و داده‌های خروجی را به عنوان مجموعه تشخیص تناسب خودرو ارائه دهید. ن = {نمن، من = ۱،۲،۳}.
(۲) داده های مسیر خودرو. خروجی مجموعه داده را با مدل YOLOX-Im ترکیب کنید، از الگوریتم ردیابی چند هدفه DeepSort برای ردیابی خودروهای در حال اجرا در ویدیو و داده های خروجی به عنوان مجموعه مسیر خودرو استفاده کنید. تی = {تیمن، من = ۱،۲،۳، …}.
(۳) داده های سرعت خودرو. روش تخمین سرعت فریم ویدیو [۴۸] برای تخمین سرعت وسیله نقلیه مورد نظر استفاده می شود. توجه به این نکته حائز اهمیت است که فاصله نرخ فریم ویدیو تا حد امکان کوچک است تا از تعداد محاسبات کاسته شود و اجرای الگوریتم تسریع شود. در عمل، الگوریتم تخمین سرعت را هر ۴ فریم انجام می دهد، زیرا فرکانس اکتساب داده در خودرو است. معادله محاسبه (۱۴) روش تخمین سرعت فریم ویدیو به شرح زیر است:

v = D ایکس D تی
در معادله (۱۴) v بر حسب متر/ثانیه است و موقعیت وسیله نقلیه بین فواصل فریم انتخابی برای بدست آوردن فاصله حرکت کم می شود. D ایکس ، مربوط به فاصله زمانی، D تی ; D تی = (تعداد فریم های پردازش شده در فریم قبلی – تعداد فریم های پردازش شده در فریم فعلی) / نرخ فریم. D ایکس فاصله خط افقی مختصات وسیله نقلیه مورد نظر در فیلم با نرخ فریم های مختلف است.

۴٫ آزمایش ها و نتایج

۴٫۱٫ طراحی تجربی

برای تأیید عملکرد مدل YOLOX-IM پیشنهادی، یک آزمایش فرسایش انجام می‌شود. سپس، مدل YOLOX-IM با یک سری از مدل‌های رایج تشخیص شیء با استفاده از معیارهای ارزیابی مقایسه می‌شود. علاوه بر این، یک برنامه کاربردی نیز انجام می شود. سرعت وسیله نقلیه به دست آمده با پردازش فیلم هوایی واقعی از طریق مدل به عنوان مقدار نمونه آزمایشی و سرعت وسیله نقلیه جمع آوری شده از طریق OBD و GNSS به عنوان مقدار واقعی نمونه زمین نشان داده می شود. سپس خطای بین مقدار نمونه آزمایشی و مقدار واقعی نمونه زمین مقایسه می شود که به عنوان آزمایش کنترل نشان داده می شود.
آزمایش کنترل عمدتاً شامل یک بخش پهپاد هوایی و بخش تجهیزات داخل خودروی آزمایشی است. برای پهپاد هوایی از پهپاد DJI Phantom 4 RTK استفاده شده است. GNSS دقت داده های موقعیت یابی را تضمین می کند و OBD می تواند داده های رانندگی وسیله نقلیه را در زمان واقعی با خواندن شبکه کنترل کننده خودرو (CAN) ثبت کند. سیستم آزمایشی در نشان داده شده است شکل ۹.
به منظور بررسی اینکه آیا مدل YOLOX-IM می‌تواند الزامات نظارت بر ترافیک را تحت روشنایی‌های مختلف برآورده کند، آزمایش کنترل با ۱۲ سناریو ترافیکی هر کدام در روز و شب طراحی شد، که در آن ارتفاع پهپاد به عنوان سه ارتفاع مانیتورینگ رایج‌ترین مورد استفاده قرار گرفت. ، و سرعت وسایل نقلیه آزمایشی نیز طبقه بندی شد، همانطور که در نشان داده شده است میز ۱. در آزمایشات کنترلی، پهپاد در ارتفاع ثابت معلق بود. وسیله نقلیه آزمایشی به صورت دایره ای در امتداد بزرگراه JinGang در تیانجین چین رانده شد و مسیرهای آن در زیر نشان داده شده است. شکل ۱۰. شایان ذکر است که از آنجایی که مکان آزمایشی این مقاله تیانجین چین است، حروف چینی در شکل ۱۰ فقط نام مکان را نشان می دهد و معنی دیگری ندارد. بخش خط در شکل ۱۰ مسیر وسیله نقلیه را نشان می دهد و اطلاعات انگلیسی بالا داده های عملکرد خودرو است.

۴٫۲٫ آزمایش های مقایسه

۴٫۲٫۱٫ توضیحات مجموعه داده

مجموعه داده VisDrone2021 توسط دانشگاه تیانجین چین جمع آوری شده است و شامل صحنه های مختلفی از ۱۴ شهر تحت شرایط آب و هوایی و نور متفاوت است. این مجموعه داده تصاویر گرفته شده توسط هواپیماهای بدون سرنشین در ارتفاعات و مکان های مختلف را با وضوح تصویر تا ۲۰۰۰ × ۱۵۰۰ پیکسل ارائه می دهد. این شامل ۱۰ دسته است: عابر پیاده، مردم، دوچرخه، اتومبیل، وانت، کامیون، سه چرخه، سایبان-سه چرخه، اتوبوس و موتور. مجموعه آموزشی شامل ۶۴۷۱ تصویر، مجموعه اعتبارسنجی شامل ۵۴۸ تصویر و مجموعه تست شامل ۱۶۱۰ تصویر است. در مجموعه داده VisDrone، ۹۰۲ شی می توانند در یک تصویر ظاهر شوند و توزیع دسته ها و برچسب ها در شکل ۱۱. برای متعادل‌تر کردن توزیع دسته‌ها، این مطالعه از SAHI برای برش هر تصویر آموزشی به برش‌هایی با وضوح ۶۴۰ × ۶۴۰ و ۱۶۰ پیکسل همپوشانی استفاده کرد و برش‌هایی را که فقط حاوی پس‌زمینه بودند حذف کرد. سپس، برش‌های انتخابی حاوی دسته‌های نمونه کمتر برای تشکیل یک مجموعه آموزشی جدید با تصاویر آموزشی اصلی، ۵۴۸ تصویر به‌عنوان مجموعه اعتبارسنجی انتخاب شدند و نتایج تجربی با آزمایش ۱۶۱۰ تصویر به‌دست آمد.

۴٫۲٫۲٫ محیط تجربی

فرآیند یادگیری عمیق در سروری با یک GPU نسبتاً قدرتمند اجرا شد و پیکربندی سرور به شرح زیر است: پردازنده Intel Core I5 ​​۱۲ ۴۰۰F، حافظه DDR4 32 G و GeForce RTX 3060 12 GPU. نسخه‌های نرم‌افزار به شرح زیر مورد استفاده قرار گرفت: پایتون نسخه ۳٫۷٫۷، Pytorch نسخه ۱٫۷٫۱ و Cuda نسخه ۱۰٫۱٫ تمرین با استفاده از شیب نزولی تصادفی با مقدار تکانه ۰٫۹۳۷، ضریب فروپاشی وزن ۵ × ۱۰ انجام شد.، نرخ یادگیری اولیه ۰٫۰۱، تنظیم اندازه دسته ای ۴، و تنظیم دوره ۱۵۰٫ برای اعوجاج هندسی، از روش مقیاس بندی و چرخش تصادفی استفاده شد. فاصله مقیاس بندی تصادفی (۰٫۲۵، ۲) است، و تصویر ورودی به طور تصادفی بین ۰٫۲۵ و ۲ مقیاس بندی می شود، در حالی که عرض و ارتفاع بین ۰٫۵۳۸ و ۱٫۸۵۷ تحریف شده است. علاوه بر این، زمانی که نسبت چرخش روی ۰٫۵ ثابت شود، ۵۰ درصد احتمال دارد که تصویر به چپ یا راست برگردد. برای اعوجاج فتومتریک، فاکتورهای اعوجاج برای رنگ، اشباع و درخشندگی به ترتیب ۰٫۱، ۰٫۷ و ۰٫۴ تنظیم شده است. وسعت تصاویر پس از تنظیم تصویر از RGB به HSV تغییر می کند.

۴٫۲٫۳٫ آزمایش ابلیشن

عملکرد تشخیص شی مدل YOLOX-IM با استفاده از mAP50، AP-large، AP-mid و AP-small ارزیابی شد. [۴۹]. میانگین دقت (AP) برای هر دسته از mAP50 با IoU 0.5 محاسبه می شود و سپس در تمام دسته ها میانگین می شود. AP-large، AP-mid و AP-small مقادیر AP هستند که برای سه مقیاس مختلف از اجسام (بزرگ، متوسط ​​و کوچک) محاسبه می‌شوند که IoU در محدوده ۰٫۵-۰٫۹۵ باشد.
فرمول محاسبه mAP به شرح زیر است:

متر آ پ = ۱ n من = ۱ n آ پ ( من )

جایی که n تعداد کل دسته ها است، من دسته فعلی است و آ پ ( من ) مقدار AP دسته فعلی است.

نتایج تجربی مدل فرسایش در نشان داده شده است جدول ۲. در مقایسه با شبکه پایه، زمانی که از الگوریتم SAHI و ماتریس تصحیح مختصات برای تقویت داده ها استفاده می شود، بهبود عملکرد آشکار است و دقت تشخیص اهداف بزرگ، متوسط ​​و کوچک ۴٫۷٪، ۱٫۶٪ و ۱٪ بهبود می یابد. به ترتیب. SAHI باعث می‌شود که اشیاء کوچک پیکسل‌های بیشتری را در برش‌ها اشغال کنند و افزایش داده‌ها تنوع نمونه‌های آموزشی را افزایش می‌دهد که به طور موثری دقت تشخیص اشیاء کوچک را بهبود می‌بخشد. سپس، نقشه ویژگی های کم عمق سی۲ برای ادغام ویژگی ها به یک FPN معرفی می شود و دقت تشخیص اشیاء کوچک تا ۱٫۳% بهبود می یابد. نتایج نشان می دهد که نقشه ویژگی سی۲ اطلاعات مکانی غنی را بر روی اهداف کوچک به دست می آورد و برای تشخیص اجسام کوچک در تصاویر هوایی پهپاد مناسب است. سپس، ULSAM در مرحله PAN اضافه می شود تا یک نقشه توجه متفاوت به دست آید، ویژگی های شی را برجسته کند و اطلاعات پس زمینه را ضعیف کند، که عملکرد تشخیص مدل را بهبود می بخشد. در نهایت، تابع تلفات IoU با SIoU جایگزین می‌شود که به جعبه مرزی امکان می‌دهد تا مکان هدف را سریع‌تر و دقیق‌تر پیدا کند و دقت شبکه را در تشخیص اهداف کوچک بهبود می‌بخشد.
در مقایسه با مدل پایه YOLOX-s، YOLOX-IM بهبودیافته ۶۷٫۱۴ درصد حجم کمتری دارد، mAP50 8.13 درصد بیشتر است، و AP-small، AP-mid و Ap-large 3.9٪، ۵٫۴٪ و ۸٫۴٪ است. به ترتیب بیشتر نتایج نشان می‌دهد که مدل بهبودیافته می‌تواند به طور موثر مشکل بسیاری از اهداف کوچک و پس‌زمینه‌های پیچیده در تصاویر هوایی پهپاد را حل کند و به نیاز سبک وزن دست یابد.

۴٫۲٫۴٫ مقایسه الگوریتم های تشخیص اشیا

عملکرد مدل تشخیص شی YOLOX-IM با CenterNet مقایسه شد [۵۰]، YOLOv3 [51]، DA-FS SSD [52] و RetinaNet [53]و الگوریتم های سریعتر R-CNN و Cascade R-CNN. نتایج مقایسه در نشان داده شده است جدول ۳. نتایج جدول به وضوح نشان می دهد که دقت مدل YOLOX-IM پیشنهادی نسبت به سایر مدل های تشخیص بالاتر است که نشان دهنده عملکرد برتر مدل YOLOX-IM نسبت به سایر مدل های تشخیص است.
از آن قابل مشاهده است جدول ۳ که نقشه مدل YOLOX-IM پیشنهاد شده در این مقاله ۴۷٫۲۰% در مجموعه داده آزمایشی است که ۱۰٫۵۸% نسبت به مدل پایه و ۵٫۸۵% نسبت به YOLOv3 رایج بهبود دارد. شایان ذکر است که مدل YOLOX-IM دقت تشخیص بالاتری را برای دسته‌های عابر پیاده، دوچرخه و موتور نشان می‌دهد که کارایی بهبود مدل در این مقاله را برای تشخیص اجسام کوچک زیر تصاویر هوایی نیز ثابت می‌کند.

۴٫۲٫۵٫ مقایسه الگوریتم های ردیابی هدف

در ارزیابی عملکرد ردیابی هدف، این مطالعه از IDSW، MOTA و MOTP به عنوان شاخص های ارزیابی برای نتایج ردیابی چند وسیله نقلیه استفاده کرد. [۵۴]. IDSW تعداد دفعاتی را نشان می دهد که شناسه های هدف در طول فرآیند ردیابی تغییر می کنند. دقت ردیابی چند شی MOTA یک شاخص مهم برای اندازه گیری توانایی الگوریتم ردیابی چند شی برای ردیابی مداوم وسایل نقلیه است. مقدار بزرگتر نشان دهنده دقت تشخیص بالاتر است و فرمول محاسبه به شرح زیر است:

م O تی آ = ۱ تی ( اف ن تی + اف پ تی + من D اس دبلیو ) تی جی تی تی

جایی که FNt تعداد وسایل نقلیه ای است که با شی مرتبط نیستند (تعداد شناسایی از دست رفته). FPt تعداد مسیرهای پیش بینی شده سایر وسایل نقلیه را نشان می دهد (تعداد تشخیص نادرست). IDSW تعداد تغییرات ID شی را نشان می دهد.

دقت ردیابی چند شی MOTP نشان دهنده همپوشانی بین چارچوب ردیابی همه وسایل نقلیه هدف و قاب واقعی وسیله نقلیه هدف است:

م O تی پ = تی ، من من O U تی ، من تی جی تی

جایی که IOU به میانگین نسبت تقاطع همه فریم های ردیابی هدف به همه فریم های واقعی اشاره دارد و Gt به تعداد مسابقات موفق در همه فریم ها اشاره دارد.

آزمایش‌ها از YOLOX-IM استفاده کردند بخش ۳ به عنوان یک آشکارساز، از الگوریتم Deep-Sort به عنوان ردیاب استفاده کرد و ویدیوهایی از وسایل نقلیه را در مجموعه داده VisDrone2021 به عنوان آزمایش گنجاند که شامل صحنه های ترافیکی با نماها و تقاطع های مختلف، آب و هوای متفاوت و شرایط انسداد متفاوت است. مقایسه الگوریتم‌های ردیابی هدف متداول مورد استفاده انجام شد. نتایج مقایسه خاص در نشان داده شده است جدول ۴.
مشاهده می شود که به نظر می رسد الگوریتم SORT با استفاده از آشکارساز سریعتر R-CNN دارای تعداد IDSW بیشتری است و عملکرد ردیابی شیء الگوریتم Deep-Sort، همچنین با استفاده از آشکارساز سریعتر R-CNN، ۰٫۳ درصد بیشتر است. MOTA و ۱٫۸٪ بالاتر در MOTP در مقایسه با SORT. تعداد IDSW نیز به طور قابل توجهی کاهش می یابد، که نشان می دهد که استراتژی تطبیق ظاهر الگوریتم Deep-Sort همبستگی بین تشخیص و ردیابی خودرو را افزایش می دهد. عملکرد ردیابی الگوریتم Deep-Sort نیز هنگامی که آشکارساز با YOLOX-IM جایگزین می‌شود، با بهبود ۴٫۶ درصدی در MOTA و ۳٫۱ درصدی در MOTP بهبود می‌یابد، که نشان می‌دهد الگوریتم تشخیص همچنین می‌تواند دقت و صحت را بهبود بخشد. دقت ردیابی چند شی

۴٫۳٫ آزمایشات کنترل

۴٫۳٫۱٫ آزمایشات میدانی

این مطالعه نتایج کاربردی عملی و دقت استخراج سرعت خودرو مدل YOLOX-IM-DeepSort را بیشتر تأیید کرد. سپس خودروهای آزمایشی در ۱۲ سناریو ترافیکی راه اندازی شدند میز ۱ شناسایی و ردیابی شدند و تنها مقادیر AP خودروها در نتایج تجربی به عنوان مبنایی برای دقت تشخیص شی در نظر گرفته شد. در پردازش الگوریتم، سطح اطمینان از زمانی که وسیله نقلیه آزمایشی ظاهر می‌شود، هر دو فریم گرفته می‌شود، و شایان ذکر است که سطح اطمینان برای نشان دادن مقدار AP خودرو برای راحتی توصیف دقت استفاده می‌شود. روند در نشان داده شده است شکل ۱۲و در مجموع ۵۰ سطح اطمینان متوالی برای مقایسه انتخاب شدند که نتایج مربوطه نشان داده شده است شکل ۱۳، شکل ۱۴ و شکل ۱۵.
مکان آزمایش میدانی در تیانجین، چین، در خیابان جینگانگ انتخاب شد، که یک بزرگراه چهار خطه دو جهته شهری است، همانطور که در نشان داده شده است. شکل ۱۶ و شکل ۱۷. آزمایش میدانی در روز و شب در ۴ نوامبر ۲۰۲۲ انجام شد.
همانطور که در نشان داده شده است شکل ۱۳ و شکل ۱۴، عنوان تصاویر به اعداد آزمایش در میز ۱. از این تصاویر می توان دریافت که وقتی ارتفاع پهپاد ۳۰ متر یا ۵۰ متر باشد، میانگین دقت تشخیص وسیله نقلیه مدل YOLOX-IM بدون توجه به اینکه سرعت وسیله نقلیه آزمایشی یکنواخت یا متغیر باشد نسبتاً بالا است. و دقت تشخیص وسیله نقلیه در روشنایی کم در مقایسه با دقت تشخیص خودرو در طول روز فقط اندکی کاهش می یابد. با این حال، هنگامی که ارتفاع پهپاد ۱۰۰ متر است، دقت تشخیص وسیله نقلیه در این زمان در مقایسه با ارتفاعات دیگر به طور قابل توجهی کاهش می یابد و دقت تشخیص وسیله نقلیه در روشنایی کم به میزان قابل توجهی کاهش می یابد.
از جانب شکل ۱۳، شکل ۱۴ و شکل ۱۵مشاهده می‌شود که الگوریتم تشخیص شی پیشنهادی تأثیر کمی بر دقت تشخیص شی در هنگام پردازش ویدیوی وسایل نقلیه آزمایشی گرفته‌شده توسط پهپاد با سرعت ثابت یا متغیر، با دامنه نوسان ۱٫۵% دارد. دقت تشخیص شی زمانی که تنظیم ارتفاع مانیتورینگ پهپاد از ۳۰ متر به ۵۰ متر تغییر می کند، نوسان کمی دارد و با دامنه نوسان ۲ درصد، هدف نظارت بر ترافیک همچنان با دقت بالا محقق می شود. با این حال، هنگامی که ارتفاع مانیتورینگ پهپاد تا ۱۰۰ متر افزایش می‌یابد، دقت تشخیص شی بیشتر کاهش می‌یابد و میانگین سطح اطمینان تنها حدود ۸۰ درصد است که نشان می‌دهد کاهش بیشتر اندازه جسم چالش بزرگ‌تری را به همراه دارد. به الگوریتم شایان ذکر است که در ویدئوهای پهپاد هوایی شبانه، زمانی که ارتفاع پهپاد در محدوده ۳۰ تا ۵۰ متر است، میانگین سطح اطمینان به دست آمده توسط الگوریتم تنها ۴٫۰ تا ۵٫۹ درصد در مقایسه با میانگین سطح اطمینان در در طول روز، صرف نظر از اینکه وسیله نقلیه مورد نظر با سرعت یکنواخت یا با سرعت متغیر حرکت می کند. با این حال، زمانی که ارتفاع پهپاد ۱۰۰ متر باشد، میانگین سطح اطمینان در شب در مقایسه با میانگین سطح اطمینان در روز بیشتر کاهش می‌یابد. بنابراین، نتیجه‌گیری می‌شود که مدل پیشنهادی می‌تواند الزامات دقت نظارت روزانه ترافیک را زمانی که پهپاد در محدوده ارتفاع ۳۰ تا ۵۰ متر قرار دارد برآورده کند.

۴٫۳٫۲٫ تجزیه و تحلیل دقت استخراج سرعت خودرو

داده‌های مبتنی بر GNSS و OBD برای اندازه‌گیری دقت سرعت وسیله نقلیه وسیله نقلیه آزمایشی به‌دست‌آمده از مدل انتخاب شدند. از آنجایی که داده های OBD در فرکانس ۵ هرتز ثبت شد و GNSS در ۲۰ هرتز تولید شد، دو منبع داده درون یابی شدند. علاوه بر این، محاسبات مشابهی برای داده های سرعت استخراج شده توسط مدل انجام شد. مقایسه خطا در نشان داده شده است شکل ۱۶ و شکل ۱۷.
برای اندازه‌گیری دقت داده‌های نمونه از خطای نسبی و شاخص برازش رگرسیون منحنی نقل‌شده استفاده شد. [۵۵] برای بحث در نظر گرفته نشد این ارقام نشان می دهد که بزرگترین خطای نسبی بین مقدار واقعی نمونه زمین و مقدار نمونه آزمایشی سرعت وسیله نقلیه آزمایشی در آزمایش شبانه ⑫ با حداکثر خطای نسبی ۱۰٫۴۳% رخ داده است. کوچکترین خطای نسبی در آزمایش روزانه ④، با حداقل خطای نسبی ۲٫۶۸٪ رخ داد، در حالی که خطاهای نسبی سایر گروه های آزمایش معمولاً از ۳٪ تا ۶٪ متغیر بود. شایان ذکر است که وقتی پهپاد در ۵۰ و ۱۰۰ متر است، الگوریتم ردیابی هدف دچار IDSW می شود و در نتیجه زمانی که الگوریتم تخمین سرعت سرعت آزمایش را بررسی می کند، خودروی آزمایشی ردیابی شده از دست می رود. وسیله نقلیه به عنوان ۰٫ این دلیل برای نقاط تغییر منحنی ناگهانی در است شکل ۱۶ و شکل ۱۷، که بیشتر در آزمایش های شبانه رخ می دهد. علاوه بر این، این آزمایش نشان داد که تعداد IDSW ها زمانی که ارتفاع پهپاد ۱۰۰ متر بود نسبت به زمانی که ارتفاع پهپاد ۵۰ متر بود، بیشتر شد. تجزیه و تحلیل دقت بالا نشان می‌دهد که مدل YOLOX-IM-DeepSort پیشنهادی برای پلتفرم‌های نظارت بر ترافیک که ارتفاع پهپاد روی ۵۰ متر تنظیم شده است، و همچنین برای جاده‌های اصلی یا بزرگراه‌هایی که میانگین سرعت ترافیک در آن حدود ۶۰ کیلومتر در ساعت است، مناسب‌تر است.

۵٫ نتیجه گیری ها

در این مطالعه، یک مدل YOLOX-IM-DeepSort برای استخراج پارامترهای ترافیک خودرو در تصاویر هوایی با روشنایی متفاوت پیشنهاد شد. مجموعه داده با افزایش داده های دامنه HSV (تنظیم روشنایی، اختلالات HSV)، پردازش تبدیل ماتریس و الگوریتم SAHI برای بهبود داده پردازش شد که کیفیت داده های آموزشی و اعتبار سنجی را بهبود بخشید. در ساختار مدل، تعداد سرهای تشخیص برای تشخیص اجسام کوچک پس از ادغام سی۲ و نقشه های ویژگی موثر افزایش یافته است، به طور موثر توانایی مدل برای تشخیص اشیاء کوچک را بهبود می بخشد. علاوه بر این، ULSAM نیز برای به دست آوردن نقشه های مختلف توجه برای برجسته کردن اطلاعات شی و تضعیف اطلاعات پس زمینه اضافه شد. در نهایت، تابع از دست دادن رگرسیون مرزی بهینه‌سازی شد تا رگرسیون مرزی سریع‌تر و دقیق‌تر شود، بنابراین سرعت آموزش مدل و دقت تشخیص بهبود یافت. نتایج آزمایش‌های ابلیشن روی مجموعه داده VisDrone2021 نشان داد که در مقایسه با مدل پایه YOLOX-s، YOLOX-IM بهبودیافته کاهش حجم ۶۷٫۱۴ درصد و افزایش ۸٫۱۳ درصدی در mAP50 با ۳٫۹٪، ۵٫۴٪ و ۸٫۴ را نشان داد. درصد در AP-small، AP-mid و Ap-large به ترتیب افزایش می یابد.
علاوه بر این، مجموعه داده VisDrone2021 برای تأیید عملکرد تشخیص شی و ردیابی شی YOLOX-IM-DeepSort استفاده شد و نتایج تجربی نشان داد که میانگین دقت تشخیص وسیله نقلیه ۸۵٫۰۰٪ و میانگین دقت ردیابی خودرو ۷۱٫۳۰٪ در سطوح مختلف روشنایی است. ، که هر دو بهتر از مدل رایج هستند. با این حال، استدلال شد که عملکرد خوب مدل استخراج پارامتر ترافیک را نمی توان به تنهایی در مجموعه داده های رایج نشان داد، زیرا این فاقد معیار است و مدل فاقد قابلیت تفسیر است. یک آزمایش میدانی با استفاده از یک وسیله نقلیه آزمایشی مجهز به OBD، GNSS و پهپاد DJI Phantom 4 RTK انجام شد. نتایج نشان داد که زمانی که ارتفاع پهپاد از ۳۰ متر تا ۵۰ متر متغیر باشد، میانگین دقت تشخیص وسیله نقلیه در شب تنها ۴٫۰ تا ۵٫۹ درصد کمتر از نتایج تشخیص در روز است و میانگین دقت استخراج پارامتر ترافیک ۹۷٫۳۲ درصد در روز و ۹۱٫۵۹٪ در شب. به طور خلاصه، کاربردی ترین شرایط نظارت بر ترافیک برای مدل استخراج پارامتر ترافیک پیشنهاد شده در این مقاله، روز و شب روشن با ارتفاع پهپاد بین ۳۰ تا ۵۰ متر است.

۶٫ بحث و گفتگو

مدل استخراج پارامتر ترافیک پیشنهادی امیدوارکننده است، با این حال، هنوز محدودیت‌هایی وجود دارد. به عنوان مثال، افزایش هد تشخیص دقت تشخیص را بهبود می بخشد اما بر کارایی تشخیص برنامه های کاربردی قابل جاسازی تأثیر می گذارد. ثانیاً، اگرچه این مقاله به استخراج پارامترهای ترافیکی تحت روشنایی کم دست می‌یابد، اما وضعیتی را در نظر نمی‌گیرد که در آن اشیاء خارجی ممکن است در شرایط آب و هوایی شدید به تصویر حمله کنند، که بر دقت تشخیص و ردیابی خودرو تأثیر می‌گذارد. علاوه بر این، کارهای آینده به شرح زیر است: (۱) در زمینه تشخیص اشیا، مکانیسم توجه مدل بر اساس آخرین مدل YOLO برای بهبود استخراج ویژگی بهبود یافته است، هرم ویژگی مدل برای یکپارچه‌سازی کامل چندگانه بهبود یافته است. ویژگی‌های مقیاس تصویر، و عملکرد از دست دادن مدل برای بهبود محلی‌سازی اشیا بهینه شده است. (۲) بررسی بیشتر کارایی مدل YOLOX-IM-DeepSort در شرایط آب و هوایی شدید (مانند باران شدید، برف، طوفان های گرد و غبار و مه) و ایجاد بهبودهای هدفمند برای امکان استفاده از مدل در همه موارد ضروری است. شرایط آب و هوایی. (۳) برای اعتبارسنجی داده‌ها، علاوه بر استفاده از OBD و همچنین GNSS، داده‌های واقعی از منابع مختلف (داده‌های رادار موج میلی‌متری، داده‌های ابر نقطه LiDAR و غیره) ترکیب می‌شوند تا دقت مدل استخراج پارامتر ترافیک را بیشتر تأیید کنند.

مشارکت های نویسنده

مفهوم سازی، JL و XL. مدیریت داده، JL و XL. کسب بودجه، XL و QC. روش، JL و SN. اعتبار سنجی، JL و XL. نوشتن – پیش نویس اصلی، JL و XL. نوشتن-بررسی و ویرایش، JL و XL همه نویسندگان نسخه منتشر شده نسخه خطی را خوانده و با آن موافقت کرده اند.

منابع مالی

این کار توسط بنیاد ملی علوم طبیعی چین (شماره ۵۱۴۰۸۴۱۷) و پروژه طرح علم و فناوری تیانجین، چین (شماره XC202028, 2022ZD016, 22YDTPJC00120) پشتیبانی شد.

بیانیه هیئت بررسی نهادی

قابل اجرا نیست.

بیانیه رضایت آگاهانه

قابل اجرا نیست.

بیانیه در دسترس بودن داده ها

قابل اجرا نیست.

تضاد علاقه

نویسندگان هیچ تضاد منافع را اعلام نمی کنند.

منابع

  1. لیو، ایکس. پنگ، ZR؛ ژانگ، LY; چن، کیو. برنامه‌ریزی مسیر بی‌درنگ و هماهنگ شده پهپاد برای نظارت بر ترافیک جاده‌ای: رویکرد تقاطع مرزی مبتنی بر جریمه. بین المللی J. کنترل. خودکار سیستم ۲۰۲۲، ۲۰، ۲۶۵۵–۲۶۶۸٫ [Google Scholar] [CrossRef]
  2. لیو، ایکس. ما، جی. چن، دی. Zhang، LY بهینه سازی مسیر کروز هواپیمای بدون سرنشین در زمان واقعی برای نظارت بر بخش جاده با استفاده از الگوریتم تجزیه. رباتیک ۲۰۲۱، ۳۹، ۱۰۰۷-۱۰۲۲٫ [Google Scholar] [CrossRef]
  3. بروکس، آر آر. راماناتان، پی. سعید، AM طبقه بندی هدف توزیع شده و ردیابی ۱۳ در شبکه های حسگر. Proc. IEEE 2003، ۹۱، ۱۱۶۳–۱۱۷۱٫ [Google Scholar] [CrossRef]
  4. ژانگ، جی. تائو، سی. زو، ز. Pan, H. روشی برای تشخیص وسیله نقلیه که ۱۵ ناحیه سایه را برای تصاویر هوایی با وضوح بالا در نظر می گیرد. در مجموعه مقالات ۲۰۱۶ ۱۶ IEEE بین المللی زمین شناسی و سمپوزیوم سنجش از دور (IGARSS)، پکن، چین، ۱۰ تا ۱۵ ژوئیه ۲۰۱۶٫ صص ۶۶۹-۶۷۲٫ [Google Scholar]
  5. که، ر. لی، ز. کیم، اس. اش، جی. کوی، ز. Wang, Y. برآورد پارامتر جریان ۱۹ ترافیک دوطرفه در زمان واقعی از ویدیوهای هوایی. IEEE Trans. هوشمند ترانسپ سیستم ۲۰۱۶، ۱۸، ۸۹۰–۹۰۱٫ [Google Scholar] [CrossRef]
  6. تسای، LW; Hsieh، JW; فن، تشخیص خودرو KC با استفاده از رنگ نرمال شده و نقشه لبه. IEEE Trans. فرآیند تصویر ۲۰۰۷، ۱۶، ۸۵۰–۸۶۴٫ [Google Scholar] [CrossRef] [PubMed]
  7. گنگ، QT؛ یو، FH; Wang, YT یک الگوریتم جدید برای تشخیص مدل بر اساس ترکیب ویژگی. J. Jilin Univ. 2018، ۴۸، ۹۲۹-۹۳۵٫ [Google Scholar]
  8. ون، ایکس. شائو، ال. Fang, W. انتخاب ویژگی و طبقه بندی کارآمد برای تشخیص وسیله نقلیه. IEEE Trans. سیستم مدار. فناوری ویدئو ۲۰۱۵، ۲۵، ۵۰۸–۵۱۷٫ [Google Scholar]
  9. تانگ، ی. ژانگ، سی. Gu, R. تشخیص و شناسایی وسیله نقلیه برای سیستم نظارت هوشمند ترافیک. چندتایی. ابزارهای کاربردی ۲۰۱۵، ۷۶، ۵۸۱۷–۵۸۳۲٫ [Google Scholar] [CrossRef]
  10. جی، دبلیو. تانگ، ال. Li, D. تشخیص وسایل نقلیه ساختمانی مبتنی بر ویدئو و کاربرد آن در سیستم نظارت هوشمند. CAAI Trans. اینتل. فن آوری ۲۰۱۶، ۱، ۱۶۲-۱۷۲٫ [Google Scholar] [CrossRef]
  11. ونگ، ام. هوانگ، جی. Da, X. یک الگوریتم جدید تفاوت بین فریم برای تشخیص هدف متحرک. بین المللی کنگره فرآیند سیگنال تصویر ۲۰۱۰، ۱، ۲۸۵-۲۸۹٫ [Google Scholar]
  12. لیو، ی. وانگ، اچ. Xiang، YL; Lu, P. یک روش تشخیص وسیله نقلیه بر اساس الگوریتم Adaboost بهبود یافته و روش تفاوت فریم. J. Huazhong Univ. علمی تکنولوژی (Nat. Sci. Ed.) 2013، ۴۱، ۳۷۹-۳۸۲٫ [Google Scholar]
  13. ژانگ، ایکس. ایزکویردو، ای. Chandramouli، K. تشخیص اجسام متراکم و کوچک در دید UAV بر اساس شبکه آبشاری. در مجموعه مقالات کنفرانس بین المللی IEEE/CVF در کارگاه های بینایی کامپیوتر، سئول، جمهوری کره، ۲۷ تا ۲۸ اکتبر ۲۰۱۹٫ [Google Scholar]
  14. دای، جی. چی، اچ. Xiong، Y. لی، ی. ژانگ، جی. متعجب.؛ Wei, Y. شبکه های کانولوشن قابل تغییر شکل. در مجموعه مقالات کنفرانس بین المللی IEEE در بینایی کامپیوتر، ونیز، ایتالیا، ۲۲ تا ۲۹ اکتبر ۲۰۱۷؛ صص ۷۶۴-۷۷۳٫ [Google Scholar]
  15. تیان، جی. لیو، جی. Yang, W. یک شبکه عصبی دوگانه برای تشخیص اشیا در تصاویر UAV. کامپیوترهای عصبی ۲۰۲۱، ۴۴۳، ۲۹۲-۳۰۱٫ [Google Scholar] [CrossRef]
  16. گیرشیک، آر. دوناهو، جی. دارل، تی. Malik, J. Rich دارای سلسله مراتب برای تشخیص دقیق شی و تقسیم بندی معنایی هستند. در مجموعه مقالات چشم انداز کامپیوتری و تشخیص الگو، کلمبوس، OH، ایالات متحده آمریکا، ۲۳ تا ۲۸ ژوئن ۲۰۱۴٫ صص ۵۸۰-۵۸۷٫ [Google Scholar]
  17. Girshick، R. Fast R-CNN. در مجموعه مقالات کنفرانس بین المللی IEEE در بینایی کامپیوتر، سانتیاگو، شیلی، ۷ تا ۱۳ دسامبر ۲۰۱۵٫ ص ۱۴۴۰-۱۴۴۸٫ [Google Scholar]
  18. رن، اس. او، ک. گیرشیک، آر. Sun, J. Faster R-CNN: به سمت تشخیص شی در زمان واقعی با شبکه های پیشنهادی منطقه. در مجموعه مقالات کنفرانس بین المللی سیستم های پردازش اطلاعات عصبی، مونترال، QC، کانادا، ۷-۱۲ دسامبر ۲۰۱۵٫ ص ۹۱-۹۹٫ [Google Scholar]
  19. ردمون، جی. دیووالا، س. گیرشیک، آر. فرهادی، الف. شما فقط یک بار نگاه می کنید: یکپارچه، تشخیص شی در زمان واقعی. در مجموعه مقالات کنفرانس IEEE 2016 در مورد بینایی کامپیوتری و تشخیص الگو (CVPR)، لاس وگاس، NV، ایالات متحده آمریکا، ۲۷ تا ۳۰ ژوئن ۲۰۱۶؛ IEEE: نیویورک، نیویورک، ایالات متحده آمریکا، ۲۰۱۶؛ صص ۷۷۹-۷۸۸٫ [Google Scholar]
  20. لی، ایکس. لیو، ی. Li، P. یک روش تشخیص خودرو چند هدفه بر اساس الگوریتم YOLO v2 در چارچوب Darknet. ترانسپ J. Transp. مهندس ۲۰۱۸، ۱۸، ۱۴۶-۱۶۲٫ [Google Scholar]
  21. لین، TY; دلار، پی. گیرشیک، آر. او، ک. حریهاران، بی. Belongie, S. شبکه های هرمی را برای تشخیص اشیا مشخص کنید. در مجموعه مقالات کنفرانس IEEE در مورد دید رایانه و تشخیص الگو، هونولولو، HI، ایالات متحده آمریکا، ۲۱ تا ۲۶ ژوئیه ۲۰۱۷؛ صص ۲۱۱۷–۲۱۲۵٫ [Google Scholar]
  22. Van Etten، A. شما فقط دو بار نگاه می کنید: تشخیص سریع شی چند مقیاسی در تصاویر ماهواره ای. arXiv 2018، arXiv:1805.09512. [Google Scholar]
  23. یانگ، ایکس. یانگ، جی. یان، جی. ژانگ، ی. ژانگ، تی. گوا، ز. سان، ایکس. Fu، K. به سمت تشخیص قوی تر برای اجسام کوچک، بهم ریخته و چرخان. در مجموعه مقالات کنفرانس بین المللی IEEE در مورد بینایی رایانه، سئول، جمهوری کره، ۲۷ اکتبر تا ۲ نوامبر ۲۰۱۹؛ صص ۸۲۳۲-۸۲۴۱٫ [Google Scholar]
  24. راجپوت، SK; پتنی، جی سی. الشمرانی، س.س. چودهری، وی. دومکا، ا. سینگ، آر. رشید، م. گهلوت، ا. الغامدی، مدل شناسایی و طبقه‌بندی خودکار خودرو با استفاده از الگوریتم YOLOv3 برای سیستم مدیریت عوارض. پایداری ۲۰۲۲، ۱۴، ۹۱۶۳٫ [Google Scholar] [CrossRef]
  25. ژانگ، ی. گوا، ز. وو، جی. تیان، ی. تانگ، اچ. Guo, X. تشخیص خودرو در زمان واقعی بر اساس نسخه ۵ بهبود یافته YOLO. پایداری ۲۰۲۲، ۱۴، ۱۲۲۷۴٫ [Google Scholar] [CrossRef]
  26. Ge، Z. لیو، اس. وانگ، اف. لی، ز. Sun, J. Yolox: Exceeding yolo series in 2021. arXiv 2021arXiv:2107.08430. [Google Scholar]
  27. Ultralytics: Yolov5. [EB/OL]. در دسترس آنلاین: https://github.com/ultralytics/yolov5 (دسترسی در ۱ نوامبر ۲۰۲۱).
  28. او، ک. ژانگ، ایکس. رن، اس. Sun, J. یادگیری باقیمانده عمیق برای تشخیص تصویر. در مجموعه مقالات کنفرانس IEEE در مورد دید کامپیوتری و تشخیص الگو، لاس وگاس، NV، ایالات متحده، ۲۷-۳۰ ژوئن ۲۰۱۶٫ صص ۷۷۰-۷۷۸٫ [Google Scholar]
  29. وانگ، سی. لیائو هی، ام. وو، YH; چن، پی. Hsieh، JW; بله، IH Cspnet: یک ستون فقرات جدید که می تواند توانایی یادگیری cnn را افزایش دهد. در مجموعه مقالات کنفرانس IEEE/CVF در کارگاه های آموزشی بینایی رایانه و تشخیص الگو، سیاتل، WA، ایالات متحده آمریکا، ۱۳ تا ۱۹ ژوئن ۲۰۲۰؛ صص ۳۹۰-۳۹۱٫ [Google Scholar]
  30. او، ک. ژانگ، ایکس. رن، اس. Sun، J. هرم فضایی ادغام در شبکه های کانولوشن عمیق برای تشخیص بصری. IEEE Trans. الگوی مقعدی ماخ هوشمند ۲۰۱۵، ۳۷، ۱۹۰۴-۱۹۱۶٫ [Google Scholar] [CrossRef]
  31. مجموعه داده پهپاد. [EB/OL]. در دسترس آنلاین: http://dronedataset.icg.tugraz.at/ (دسترسی در ۲۵ ژانویه ۲۰۱۹).
  32. مجموعه داده Visdrone. [EB/OL]. در دسترس آنلاین: https://github.com/VisDrone (در ۱۳ ژانویه ۲۰۲۱ قابل دسترسی است).
  33. یائو، ی.؛ ژنگ، ال.؛ یانگ، ایکس.؛ نافاد، ام.؛ گدئون، تی. شبیه سازی مجموعه داده های وسیله نقلیه سازگار محتوا با نزول ویژگی; Springer: Cham، سوئیس، ۲۰۲۰٫ [Google Scholar]
  34. Qi، CY تحقیق در مورد تشخیص وسیله نقلیه و فاصله در شب بر اساس دید تک چشمی; دانشگاه جیلین: چانگچون، چین، ۲۰۲۱٫ [Google Scholar]
  35. لیو، جی پی؛ شان، دی اف. Guo، ZY؛ لو، ZB; روش استخراج پارامتر ژانگ، ZW Traffic و اعتبارسنجی ویدیوی پهپاد. هایو. فناوری ترافیک ۲۰۲۱، ۳۸، ۱۴۹-۱۵۸٫ [Google Scholar]
  36. امباو، SE پردازش و تجزیه و تحلیل تصویر دیجیتال: برنامه های بینایی انسان و کامپیوتر با ابزارهای CVIP; CRC Press: BocaRaton، FL، USA، ۲۰۱۰٫ [Google Scholar]
  37. بابنکو، بی. یانگ، MH; Belongie, S. ردیابی شیء قوی با یادگیری چند نمونه آنلاین. IEEE Trans. الگوی مقعدی ماخ هوشمند ۲۰۱۰، ۳۳، ۱۶۱۹-۱۶۳۲٫ [Google Scholar] [CrossRef]
  38. آکیون، اف سی؛ Altinuc، SO; تمیزل، ا. arXiv 2022، arXiv:2202.06934. [Google Scholar]
  39. دیوریز، تی. Taylor, GW تنظیم بهبود یافته شبکه های عصبی کانولوشنال با برش. arXiv 2017، arXiv:1708.04552. [Google Scholar]
  40. ژانگ، اچ. سیسه، ام. Dauphin، YN; Lopez-Paz، D. Mixup: فراتر از به حداقل رساندن ریسک تجربی. arXiv 2017، arXiv:1710.09412. [Google Scholar]
  41. یون، اس. هان، دی. اوه، SJ; چون، اس. چو، جی. Yoo, Y. Cutmix: استراتژی منظم سازی برای آموزش طبقه بندی کننده های قوی با ویژگی های قابل بومی سازی. در مجموعه مقالات کنفرانس بین المللی IEEE/CVF در بینایی رایانه، سئول، جمهوری کره، ۲۷ اکتبر تا ۲ نوامبر ۲۰۱۹؛ صفحات ۶۰۲۳–۶۰۳۲٫ [Google Scholar]
  42. بوچکوفسکی، آ. وانگ، سی. Liao، HYM Yolov4: سرعت و دقت بهینه تشخیص اشیا. arXiv 2020، arXiv:2004.10934. [Google Scholar]
  43. ساینی، ر. Jha، NK; داس، بی. میتال، اس. Mohan، CK Ulsam: ماژول توجه فوق‌العاده سبک برای شبکه‌های عصبی کانولوشنال فشرده. در مجموعه مقالات کنفرانس زمستانی IEEE/CVF در مورد کاربردهای بینایی رایانه، Snowmass Village، CO، ایالات متحده آمریکا، ۱ تا ۵ مارس ۲۰۲۰؛ صفحات ۱۶۲۷-۱۶۳۶٫ [Google Scholar]
  44. یو، جی. جیانگ، ی. وانگ، ز. کائو، ز. Huang, T. Unitbox: یک شبکه پیشرفته تشخیص اشیا. در مجموعه مقالات بیست و چهارمین کنفرانس بین المللی ACM در چند رسانه ای، آمستردام، هلند، ۱۵ تا ۱۹ اکتبر ۲۰۱۶؛ صص ۵۱۶-۵۲۰٫ [Google Scholar]
  45. Gevorgyan، Z. Siou از دست دادن: یادگیری قوی تر برای رگرسیون جعبه مرزی. arXiv 2022، arXiv:2205.12740. [Google Scholar]
  46. دو، دی. زو، پی. ون، ال. بیان، ایکس. لین، اچ. هو، کیو. پنگ، تی. ژنگ، جی. وانگ، ایکس. ژانگ، ی. و همکاران VisDrone-DET2019: دید در نتایج چالش تصویر با تشخیص شیء هواپیمای بدون سرنشین روبرو می شود. در مجموعه مقالات کنفرانس بین المللی IEEE/CVF در کارگاه های بینایی کامپیوتر، سئول، جمهوری کره، ۲۷ اکتبر تا ۲ نوامبر ۲۰۱۹٫ [Google Scholar]
  47. دونگ، ام ال. Ren, AH تحقیق در مورد تشخیص رویداد ترافیک بزرگراه بر اساس یادگیری عمیق. الکترون خارجی Meas. تکنولوژی ۲۰۲۱، ۴۰، ۱۰۸-۱۱۶٫ [Google Scholar] [CrossRef]
  48. Jia، CM Rearch در مورد اندازه‌گیری سرعت خودرو با استفاده از دوربین‌های بالای خط. انتخاب کنید فنی ۲۰۲۱، ۴۷، ۶۰۸-۶۱۲٫ [Google Scholar] [CrossRef]
  49. ژنگ، ال. شن، ال. تیان، ال. وانگ، اس. وانگ، جی. Tian, ​​Q. شناسایی مجدد افراد مقیاس پذیر: یک معیار. در مجموعه مقالات کنفرانس بین المللی IEEE در بینایی کامپیوتر (ICCV)، سانتیاگو، شیلی، ۷ تا ۱۳ دسامبر ۲۰۱۵٫ صص ۱۱۱۶–۱۱۲۴٫ [Google Scholar]
  50. آلبابا، BM; Ozer, S. Synet: یک شبکه مجموعه ای برای تشخیص اشیا در تصاویر UAV. در مجموعه مقالات بیست و پنجمین کنفرانس بین المللی شناسایی الگو (ICPR)، میلان، ایتالیا، ۱۰ تا ۱۵ ژانویه ۲۰۲۱؛ IEEE: نیویورک، نیویورک، ایالات متحده آمریکا، ۲۰۲۱؛ ص ۱۰۲۲۷–۱۰۲۳۴٫ [Google Scholar]
  51. ردمون، جی. فرهادی، آ. یولوف۳: یک بهبود تدریجی. علوم پایه ۲۰۱۸، ۱۸، ۶۷-۷۴٫ [Google Scholar]
  52. لیو، ی. دینگ، ز. کائو، ی. چانگ، ام. روش تشخیص شیء تصویر UAV با ویژگی ترکیبی چند مقیاسی بر اساس پیچیدگی گشاد شده و مکانیسم توجه. در مجموعه مقالات سال ۲۰۲۰، هشتمین کنفرانس بین المللی فناوری اطلاعات: اینترنت اشیا و شهر هوشمند، شیان، چین، ۲۵ تا ۲۷ دسامبر ۲۰۲۰؛ صص ۱۲۵-۱۳۲٫ [Google Scholar]
  53. لین، TY; گویال، پ. گیرشیک، آر. او، ک. Dollár, P. از دست دادن کانونی برای تشخیص اجسام متراکم. در مجموعه مقالات کنفرانس بین المللی IEEE در بینایی کامپیوتر، ونیز، ایتالیا، ۲۲ تا ۲۹ اکتبر ۲۰۱۷٫ صفحات ۲۹۸۰-۲۹۸۸٫ [Google Scholar]
  54. رحمان، م. وانگ، ی. بهینه سازی تقاطع بیش از اتحاد در شبکه های عصبی عمیق برای تقسیم بندی تصویر. در مجموعه مقالات سمپوزیوم بین المللی در محاسبات بصری، لاس وگاس، NV، ایالات متحده آمریکا، ۱۲-۱۴ دسامبر ۲۰۱۶٫ صص ۲۳۴-۲۴۴٫ [Google Scholar]
  55. ژانگ، جی. تفکیک روش های تخمین پارامتر برای مدل های رگرسیون خطی; دانشگاه صنعتی ووهان: ووهان، چین، ۲۰۲۰٫ [Google Scholar]
شکل ۱٫
ساختار شبکه ستون فقرات YOLOX-s.

شکل ۱٫
ساختار شبکه ستون فقرات YOLOX-s.
پایداری 15 08505 g001
شکل ۲٫
اغتشاش تصادفی HSV.

شکل ۲٫
اغتشاش تصادفی HSV.
پایداری 15 08505 g002
شکل ۳٫
نمودار جریان استخراج پارامتر ترافیک ویدئویی هوایی.

شکل ۳٫
نمودار جریان استخراج پارامتر ترافیک ویدئویی هوایی.
پایداری 15 08505 g003
شکل ۴٫
هیستوگرام نرمال شده میانگین روشنایی تصویر در مجموعه داده Visdrone2021.

شکل ۴٫
هیستوگرام نرمال شده میانگین روشنایی تصویر در مجموعه داده Visdrone2021.
پایداری 15 08505 g004
شکل ۵٫
مقایسه اثرات افزایش داده دامنه HSV (گروه (آ) برای افزایش روشنایی، گروه (ب) برای کاهش روشنایی است و گروه (ج) برای سرکوب نوردهی بیش از حد است).

شکل ۵٫
مقایسه اثرات افزایش داده دامنه HSV (گروه (آ) برای افزایش روشنایی، گروه (ب) برای کاهش روشنایی است و گروه (ج) برای سرکوب نوردهی بیش از حد است).
پایداری 15 08505 g005
شکل ۶٫
ساختار ULSAM.

شکل ۶٫
ساختار ULSAM.
پایداری 15 08505 g006
شکل ۷٫
معماری شبکه ستون فقرات YOLOX-IM.

شکل ۷٫
معماری شبکه ستون فقرات YOLOX-IM.
پایداری 15 08505 g007
شکل ۸٫
معماری الگوریتم DeepSort

شکل ۸٫
معماری الگوریتم DeepSort
پایداری 15 08505 g008
شکل ۹٫
تجهیزات آزمایشی میدانی

شکل ۹٫
تجهیزات آزمایشی میدانی
پایداری 15 08505 g009
شکل ۱۰٫
مسیر وسیله نقلیه آزمایشی برای آزمایش کنترل.

شکل ۱۰٫
مسیر وسیله نقلیه آزمایشی برای آزمایش کنترل.
پایداری 15 08505 g010
شکل ۱۱٫
توزیع برچسب ها در مجموعه داده

شکل ۱۱٫
توزیع برچسب ها در مجموعه داده
پایداری 15 08505 g011
شکل ۱۲٫
فرآیند گرفتن سطح اطمینان در تشخیص ویدیوی هوایی.

شکل ۱۲٫
فرآیند گرفتن سطح اطمینان در تشخیص ویدیوی هوایی.
پایداری 15 08505 g012
شکل ۱۳٫
دقت تشخیص وسیله نقلیه (خودرو با سرعت یکنواخت).

شکل ۱۳٫
دقت تشخیص وسیله نقلیه (خودرو با سرعت یکنواخت).
پایداری 15 08505 g013
شکل ۱۴٫
دقت تشخیص وسیله نقلیه (خودرو با سرعت متغیر).

شکل ۱۴٫
دقت تشخیص وسیله نقلیه (خودرو با سرعت متغیر).
پایداری 15 08505 g014
شکل ۱۵٫
نمودار روند تغییر در بالاترین مقدار سطح اطمینان.

شکل ۱۵٫
نمودار روند تغییر در بالاترین مقدار سطح اطمینان.
پایداری 15 08505 g015
شکل ۱۶٫
سرعت های استخراج شده در مقابل سرعت های حقیقت زمینی (خودرو با سرعت یکنواخت).

شکل ۱۶٫
سرعت های استخراج شده در مقابل سرعت های حقیقت زمینی (خودرو با سرعت یکنواخت).
پایداری 15 08505 g016
شکل ۱۷٫
سرعت های استخراج شده در مقابل سرعت های واقعی زمین (خودرو با سرعت متغیر).

شکل ۱۷٫
سرعت های استخراج شده در مقابل سرعت های واقعی زمین (خودرو با سرعت متغیر).
پایداری 15 08505 g017
میز ۱٫
آزمایش کنترل با ۱۲ سناریو ترافیک.
میز ۱٫
آزمایش کنترل با ۱۲ سناریو ترافیک.
شماره آزمایشی میانگین زمان ضبط عکس‌های هوایی با پهپاد سرعت وسیله نقلیه آزمایشی (کیلومتر در ساعت) ارتفاع پهپاد (متر) طول جاده آزمایشی (متر)
روز شب
۱ ۱۵ ۱۸ ۴۰ ۳۰ ۵۰
۲ ۱۰ ۱۵ ۶۰ ۳۰ ۵۰
۳ ۲۳ ۲۵ ۱۰ تا ۴۰ ۳۰ ۵۰
۴ ۱۸ ۲۵ ۱۰ تا ۶۰ ۳۰ ۵۰
۵ ۱۹ ۲۷ ۴۰ ۵۰ ۷۵
۶ ۱۳ ۲۰ ۶۰ ۵۰ ۷۵
۷ ۲۷ ۳۵ ۱۰ تا ۴۰ ۵۰ ۷۵
۸ ۲۱ ۳۰ ۱۰ تا ۶۰ ۵۰ ۷۵
۹ ۲۷ ۳۰ ۴۰ ۱۰۰ ۱۵۰
۱۰ ۲۴ ۳۵ ۶۰ ۱۰۰ ۱۵۰
۱۱ ۳۳ ۴۰ ۱۰ تا ۴۰ ۱۰۰ ۱۵۰
۱۲ ۲۸ ۳۴ ۱۰ تا ۶۰ ۱۰۰ ۱۵۰
جدول ۲٫
نتایج آزمایش‌های فرسایش با ماژول‌های بهبودیافته
جدول ۲٫
نتایج آزمایش‌های فرسایش با ماژول‌های بهبودیافته
مدل پایه (YOLOX-s) افزایش داده ها سی۲ ULSA SIoU حجم (MB) mAP50 AP-Small AP-Mid Ap-Large
۱۳٫۸۵ ۳۶٫۶۲٪ ۰٫۱۰۳ ۰٫۳۱۲ ۰٫۴۲۲
۱۳٫۸۵ ۳۸٫۷۴٪ ۰٫۱۱۳ ۰٫۳۲۹ ۰٫۴۷۶
۶٫۷ ۴۱٫۹۸٪ ۰٫۱۲۴ ۰٫۳۴۱ ۰٫۴۹۵
۸٫۲ ۴۴٫۱۳٪ ۰٫۱۳۶ ۰٫۳۶۴ ۰٫۴۸۸
۴٫۵۵ ۴۴٫۷۵٪ ۰٫۱۴۲ ۰٫۳۶۶ ۰٫۵۰۶
جدول ۳٫
نتایج طبقه بندی مدل های مختلف در مجموعه تست (mAP50).
جدول ۳٫
نتایج طبقه بندی مدل های مختلف در مجموعه تست (mAP50).
مدل وضوح mAP عابر پیاده مردم دوچرخه ماشین ون کامیون سه چرخه سایبان-سه چرخه اتوبوس موتور
CenterNet ۲۶٫۶۰٪ ۰٫۲۳ ۰٫۲۱ ۰٫۱۵ ۰٫۶ ۰٫۲۴ ۰٫۲۱ ۰٫۲ ۰٫۱۷ ۰٫۳۸ ۰٫۲۴
YOLOv3 ۷۶۸ × ۷۶۸
۱۱۲۰ × ۱۱۲۰
۴۱٫۳۵٪
۴۵٫۶۴٪

۰٫۴۴

۰٫۲۸

۰٫۲۳

۰٫۸۵

۰٫۵۳

۰٫۵۴

۰٫۳۱

۰٫۲۷

۰٫۶۵

۰٫۴۶
SSD DA-FS ۳۶٫۷۰٪
رتینا نت ۳۵٫۵۹٪ ۰٫۲۷ ۰٫۱۳ ۰٫۱۴ ۰٫۵۹ ۰٫۵۰ ۰٫۵۴ ۰٫۲۵ ۰٫۳۰ ۰٫۵۹ ۰٫۲۴
YOLOX-s
(مدل پایه)
۶۴۰ × ۶۴۰ ۳۶٫۶۲٪ ۰٫۳۱ ۰٫۲۱ ۰٫۱۵ ۰٫۷۸ ۰٫۴۱ ۰٫۴۶ ۰٫۲۲ ۰٫۱۹ ۰٫۵۸ ۰٫۳۶
YOLOX-IM
(مال ما)
۶۴۰ × ۶۴۰ ۴۷٫۲۰٪ ۰٫۴۵ ۰٫۳۲ ۰٫۲۶ ۰٫۸۵ ۰٫۵۱ ۰٫۵۶ ۰٫۳۲ ۰٫۲۸ ۰٫۶۹ ۰٫۴۸
FasterR-CNN ۳۳٫۶۰٪
CascadeR-CNN ۴۳٫۷۰٪ ۰٫۴۳ ۰٫۳۳ ۰٫۲۱ ۰٫۸۰ ۰٫۴۹ ۰٫۴۴ ۰٫۳۲ ۰٫۲۲ ۰٫۶۲ ۰٫۴۳
جدول ۴٫
مقایسه عملکرد ردیابی چهار الگوریتم ردیابی چند شی.
جدول ۴٫
مقایسه عملکرد ردیابی چهار الگوریتم ردیابی چند شی.
الگوریتم ردیابی MOTA MOTP IDSW
مرتب سازی ۶۰٫۹ ۷۹٫۵ ۱۶۴
مرتب سازی عمیق ۶۱٫۲ ۸۱٫۳ ۹۹
YOLOv3 + Deep-Sort ۶۵٫۸ ۸۴٫۴ ۷۱
YOLOX-IM + Deep-Sort ۷۱٫۳ ۸۵٫۹ ۵۳
سلب مسئولیت/یادداشت ناشر: اظهارات، نظرات و داده های موجود در همه نشریات صرفاً متعلق به نویسنده (ها) و مشارکت کننده (ها) است و نه MDPI و/یا ویرایشگر(ها). MDPI و/یا ویراستار(های) مسئولیت هرگونه آسیب به افراد یا دارایی ناشی از هر ایده، روش، دستورالعمل یا محصولات اشاره شده در محتوا را رد می کنند.

منابع:
۱- shahrsaz.ir , پایداری، جلد. ۱۵، صفحات ۸۵۰۵: مدل استخراج پارامتر ترافیک با استفاده از تشخیص و ردیابی خودروهای کوچک در تصاویر هوایی با روشنایی کم
,۱۶۸۴۹۳۶۲۰۵
۲- https://www.mdpi.com/2071-1050/15/11/8505 | 2023-05-24 04:30:00

به اشتراک بگذارید
تعداد دیدگاه : 0
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.
با فعال سازی نوتیفیکیشن سایت به روز بمانید! آیا میخواهید جدید ترین مطالب سایت را به صورت نوتیفیکیشن دریافت کنید؟ خیر بله