Ekspresi wajah merupakan elemen penting dalam interaksi manusia dan komputer serta sebagai komunikasi interpersonal non-verbal, yang digunakan untuk menyampaikan pikiran dan emosi yang dirasakan pada saat tertentu. Terdapat banyak penelitian menunjukkan bahwa jaringan saraf berbasis CNN cukup akurat dan efektif dalam klasifikasi citra. Klasifikasi citra ekspresi wajah dapat membantu memahami emosi yang sedang dialami seseorang. Sebagai usaha untuk meningkatkan interaksi antara manusia dan komputer, penelitian ini dilakukan untuk mengembangkan aplikasi mobile berbasis android yang dapat mengklasifikasikan ekspresi wajah manusia dengan menggunakan arsitektur MobileNet. Model dilatih menggunakan dataset AffectNetHQ untuk mengenali delapan ekspresi wajah, yaitu bahagia, sedih, marah, takut, terkejut, meremehkan, jijik, dan netral, yang kemudian diintegrasikan ke dalam aplikasi android dengan memanfaatkan TensorFlow Lite. Hasil pengujian akurasi menunjukkan bahwa model MobileNetV2 mendapatkan performa terbaik pada kedua skenario pengujian. Model yang belum diintegrasikan ke dalam aplikasi mencapai akurasi 69.55%. Namun, setelah model diintegrasikan ke dalam aplikasi dan diuji langsung oleh 5 pengguna dengan rincian 3 laki-laki dan 2 perempuan, terjadi penurunan akurasi. Pada fitur galeri, akurasi turun menjadi 57.50%, sedangkan pada fitur live camera turun menjadi 47.50%.
Copyrights © 2025