Claim Missing Document
Check
Articles

Found 2 Documents
Search

Studi Perbandingan Model Lightweight YOLOv12 untuk Deteksi Objek Bawah Air Secara Real-Time Prasetya, Hebron; R. Balo, Revin; Tumbal, Tasya; M. Sambul, Alwin; Dwisnanto Putro, Muhamad
Jurnal Telematika Vol. 20 No. 2 (2025)
Publisher : Yayasan Petra Harapan Bangsa

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.61769/telematika.v20i2.799

Abstract

Metode deep learning dalam computer vision berperan penting dalam pelokalan objek menggunakan sensor berbasis kamera dengan Convolutional Neural Networks sebagai pendekatan utama dalam deteksi objek. Namun, banyak model yang ada memiliki biaya komputasi yang tinggi akibat arsitektur yang dalam dan operasi yang kompleks sehingga membatasi penerapannya untuk kebutuhan waktu nyata pada perangkat berbiaya rendah dan dengan sumber daya terbatas. Arsitektur YOLOv12 menawarkan beberapa varian ringan yang dirancang untuk meningkatkan efisiensi komputasi. Penelitian ini mengevaluasi keseimbangan antara efisiensi dan kinerja deteksi dengan membandingkan berbagai varian model berdasarkan jumlah parameter, operasi floating-point, dan kecepatan inferensi, serta mengukur akurasi menggunakan mean average precision. Hasil evaluasi ini digunakan untuk menilai kesesuaian model yang ringan dalam penerapan waktu nyata pada lingkungan dengan sumber daya terbatas, seperti pemantauan dan konservasi bawah air. Hasil eksperimen pada dataset real-world underwater object detection menunjukkan bahwa YOLOv12-nano memiliki akurasi 5,7% lebih rendah dibandingkan YOLOv12-medium, namun hanya membutuhkan 2,57 juta parameter dan 6,5 GFLOPs, jauh lebih kecil dibandingkan YOLOv12-medium yang memiliki 20,1 juta parameter dan 67,8 GFLOPs. Selain itu, YOLOv12-small membutuhkan 9,26 juta parameter dan 21,5 GFLOPs sehingga berada di antara varian nano dan medium dari sisi kompleksitas, dengan akurasi yang tetap kompetitif. Pada proses inferensi, YOLOv12-nano mencapai kecepatan 16,48 FPS pada CPU Intel(R) Core (TM) i5-12450HX generasi ke-12. Sebagai perbandingan, YOLOv12-small berjalan pada 6,28 FPS, sedangkan YOLOv12-medium mencapai 2,36 FPS. Hasil ini menunjukkan bahwa YOLOv12-nano merupakan varian yang paling sesuai untuk penerapan waktu nyata pada platform berbasis CPU.
An effective and efficient vehicle detection using ER-EMA-YOLOv10n Kutika, Imanuel; Lahimade, Vicky Nolant Setyanto; Todingan, Tomi Heri Julius; Prasetya, Hebron; Sentinuwo, Steven Ray; Putro, Muhamad Dwisnanto
SINERGI Vol 30, No 1 (2026)
Publisher : Universitas Mercu Buana

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Vehicle detection plays a key role in automating traffic analysis, a field that continues to advance rapidly. Vision-based systems identify vehicle types and sizes, but achieving high accuracy and efficiency remains a challenge. Reliable real-world deployment requires optimized models that balance performance and computational cost. YOLOv10n, the most efficient version of the YOLO family, offers a solid foundation for lightweight feature extraction. To improve its detection performance, this study proposes an enhanced version of YOLOv10n by incorporating a scale-aware attention mechanism. We proposed the Expanded Refinement Efficient Multi-Scale Attention (ER-EMA) module, which enhances feature encoding by capturing vehicle characteristics across multiple receptive fields. ER-EMA consists of two core components: the Expanded Converted Inverted Block (ECIB) and the Convolutional Refinement Block (CRB). These components use diverse convolutional kernels to extract and refine multi-frequency spatial features. Integrating ER-EMA into the YOLOv10n framework produces a more compact and accurate detection model. Experimental results show that the proposed model increases mAP@50 by 1%, while reducing the number of parameters by 0.1M and computation by 0.1 GFLOPS on the Vehicle-COCO dataset. On the UA-DETRAC benchmark, it achieves a 4% improvement in mAP@50:95, with a reduction of 0.2M in parameters and 0.4 GFLOPS in computational efficiency—outperforming the original YOLOv10n and prior methods in both performance and computational efficiency.