Penyandang tunanetra sering menghadapi kesulitan dalam mobilitas sehari-hari karena keterbatasan alat bantu yang tersedia saat ini. Meskipun tongkat khusus dapat membantu dalam berjalan, namun masih sulit bagi mereka untuk mendeteksi objek secara real-time. Kemajuan dalam pengenalan objek berbasis citra, terutama dengan penggunaan machine learning, menawarkan solusi yang menjanjikan. Untuk mewujudkan sistem pendeteksi objek yang efektif, diperlukan menjalankan deteksi objek pada perangkat kecil seperti Raspberry Pi 4. Perangkat tersebut ringan dan kompatibel untuk kebutuhan mobilitas tinggi sehingga memberikan kenyamanan bagi penyandang tunanetra ketika melakukan aktivitas sehari-hari. Namun, keterbatasan kemampuan komputasi Raspberry Pi 4 menjadi tantangan, mengingat deteksi objek membutuhkan daya komputasi besar. Penelitian terbaru menunjukkan bahwa meskipun telah dilakukan optimasi pada model deteksi objek seperti YOLOv8, namun beban komputasinya masih cukup besar untuk diimplementasikan pada Raspberry Pi 4. Oleh karena itu, penelitian ini bertujuan untuk mengembangkan model YOLOv8 versi nano dengan beban komputasi yang lebih ringan. Metode yang diusulkan melibatkan penggunaan ghost module, downsampling, dan attention mechanism. Hasil penelitian menunjukkan bahwa penggunaan ghost module dan downsampling efektif mengurangi GFLOPS model YOLOv8n dari 8.09 GFLOPS menjadi 1.77 GFLOPS, menurunkan waktu inference model hingga 57,6%, dari 401,56 ms menjadi 170,33 ms pada perangkat keras Raspberry Pi 4, tanpa mengorbankan performa deteksi. Selain itu, integrasi attention mechanism melalui attention max pooling meningkatkan akurasi model dengan peningkatan mAP sebesar 1,3% dibandingkan max pooling standar. Model ini berhasil memberikan deteksi yang lebih akurat dan efisien, menjadikannya solusi yang potensial dalam membangun sistem benam untuk membantu penyandang tunanetra dalam mendeteksi objek secara real-time.
                        
                        
                        
                        
                            
                                Copyrights © 2024