Sebagian besar studi pengenalan alfabet Bahasa Isyarat Indonesia (BISINDO) masih terbatas pada gesture statik, meskipun beberapa huruf seperti R dan J memiliki karakteristik gerakan dinamis yang tidak dapat direpresentasikan secara statis. Penelitian ini menggunakan MediaPipe untuk mendeteksi 21 keypoints tangan sebagai input fitur. Titik-titik ini dimodelkan dalam bentuk graf dan diproses menggunakan Graph Neural Networks (GNNs) guna mengenali alfabet secara simultan, termasuk huruf-huruf dinamis. Proses pelatihan menggunakan K-Fold Cross Validation untuk menguji konsistensi performa model. Model GNN menghasilkan akurasi sebesar 96% pada pengujian data alfabet BISINDO. Prototipe sistem dalam bentuk aplikasi web berhasil mengenali 26 huruf BISINDO secara dinamis dengan tingkat akurasi prediksi mencapai 91%, menunjukkan potensi implementasi nyata dari pendekatan GNN dalam mendukung aksesibilitas komunikasi inklusif.