Komunikasi antara penyandang tunarungu dan masyarakat umum di Indonesia masih terbatas akibat rendahnya pemahaman terhadap Sistem Bahasa Isyarat Indonesia (SIBI) yang secara resmi diakui oleh pemerintah. Penelitian ini bertujuan untuk mengevaluasi performa tiga model deteksi objek berbasis deep learning MobileNetV2-SSD, MobileNetV2-RetinaNet, dan YOLOv11 dalam mendeteksi bahasa isyarat SIBI, serta merekomendasikan model terbaik untuk implementasi di perangkat Android. Sistem dirancang dengan fokus pada efisiensi agar dapat digunakan secara optimal di perangkat mobile. Hasil evaluasi menunjukkan bahwa MobileNetV2-SSD memberikan performa terbaik dengan mean Average Precision (mAP) sebesar 99,7% dan kecepatan 9 frame per second (FPS). YOLOv11 memperoleh mAP sebesar 89,8% dan 5 FPS, meskipun mengalami fluktuasi pada validation loss. Sementara itu, MobileNetV2-RetinaNet awalnya mencatat mAP sebesar 38,8%, namun meningkat hingga 87,69% pada rasio dataset 70:15:15. Meskipun akurasinya membaik, model ini tetap kurang ideal karena kecepatan inferensi hanya mencapai 2 FPS.Penelitian ini diharapkan dapat menjadi kontribusi awal dalam pengembangan teknologi penerjemah bahasa isyarat yang inklusif dan efisien, guna meningkatkan aksesibilitas komunikasi bagi penyandang tunarungu di Indonesia.