การพัฒนาระบบอัตโนมัติเพื่อหลีกเลี่ยงการชนโดยใช้ข้อมูลความลึกของภาพ

ชื่อนักเรียนผู้จัดทำโครงงานวิทยาศาสตร์

ณัฐวดี ลีภัทรกิจ

อาจารย์ที่ปรึกษาโครงงานวิทยาศาสตร์

วชิรพัฒน์ จิวานิจ, กอบชัย ดวงรัตนเลิศ

โรงเรียนที่กำกับดูแลโครงงานวิทยาศาสตร์

โรงเรียนหาดใหญ่วิทยาลัย

ปีที่จัดทำโครงงานวิทยาศาสตร์

พ.ศ. 2565

บทคัดย่อโครงงานวิทยาศาสตร์

The safety of unmanned aerial vehicles (UAVs) or drones is a critical concern as their usage continues to increase in various fields. Collision avoidance is a crucial aspect of ensuring the safety of UAVs, especially in real-world scenarios where real-time functionality is essential. In this study, we propose an automatic collision avoidance system based on image depth information that utilizes deep learning techniques to predict collisions in videos.

We used the CoLaNet dataset, consisting of 100 videos of UAV collisions annotated with escape vectors, to train and test the system. The dataset includes over 2000 collision frames and 6000 non-collision frames. The proposed system combines depth map generation and deep regression to generate real-time approximation of escape vectors. Five different deep learning architectures were used to determine the effectiveness of the model: Resnet50V2, MobileNet, EfficientNetV2B0, InceptionV3, and DenseNet121. For each architecture, we tested three different time intervals for video stacking, which represents the length of time over which the model processes the video. These intervals were 0.25 seconds, 0.50 seconds, and 1.00 second.

The results of the experiment indicate that the Resnet50V2 and MobileNet architectures performed the best, with the highest F1-scores across all time intervals. The EfficientNetV2B0 and InceptionV3 architectures also showed relatively good performance, while the DenseNet121 architecture performed the worst. The F1-scores generally increased