Penelitian ini dilatarbelakangi oleh kebutuhan pengembangan sistem kendali robot yang lebih intuitif dan responsif, khususnya melalui penggunaan interface non-verbal yang berbasis gestur tangan. Teknologi Kinect Xbox menjadi salah satu alat yang potensial dalam hal ini karena kemampuannya menangkap data gerakan secara real-time dengan harga yang relatif terjangkau dan implementasi yang mudah. Tujuan utama penelitian ini adalah mengembangkan metode deteksi gestur tangan berbasis Convolutional Neural Network (CNN) yang mampu melakukan klasifikasi gestur secara akurat dan cepat dalam kondisi nyata, sehingga dapat digunakan sebagai kontrol kendali robot secara efektif.Metodologi yang diterapkan menggunakan pendekatan eksperimen kuantitatif dengan pengumpulan data gerakan tangan. Data tersebut diolah menggunakan arsitektur CNN untuk melatih model klasifikasi gestur. Percobaan dilakukan dengan variasi jarak antara perangkat Kinect dengan subjek, mulai dari 1 meter hingga 4 meter, dalam lingkungan indoor dengan pencahayaan standar. Setiap gestur yang dipilih mewakili perintah kendali robot, seperti maju, mundur, berhenti, dan berputar.Hasil penelitian menunjukkan bahwa metode deteksi gestur ini memberikan performa optimal pada jarak sekitar 2,5 meter dengan tingkat akurasi mencapai 92%. Akurasi ini menunjukkan peningkatan signifikan dibandingkan jarak lainnya, dimana pada jarak terlalu dekat atau terlalu jauh akurasi menurun drastis. Selain itu, sistem dapat mengenali beragam gestur dengan kecepatan proses yang memadai untuk aplikasi real-time, menunjang pengendalian robot secara natural dan responsif. Adapun kelebihan lain dari metode ini adalah kemampuannya untuk beradaptasi dengan variabilitas gerakan tangan antar individu, sehingga menjadikannya solusi praktis dalam interaksi manusia-mesin berbasis gestur.  Kata kunci:  Deteksi Gestur Tangan, Convolutional Neural Network (CNN), Kinect Xbox 
                        
                        
                        
                        
                            
                                Copyrights © 2025