Penelitian ini membahas tantangan serangan Fast Gradient Sign Method (FGSM) dalam pencitraan medis dan keamanan data. Karena layanan kesehatan semakin mengandalkan model Machine Learning, jaminan integritas dan kerahasiaan dalam data medis menjadi sangat penting. Studi ini meninjau literatur terkait serangan adversarial pada Machine Learning, khususnya dalam konteks aplikasi pencitraan medis. Kerentanan ini mencakup risiko manipulasi data yang dapat menyebabkan kesalahan diagnosis atau pelanggaran privasi. Literatur yang dianalisis mencakup jurnal medis dan konferensi pembelajaran mesin guna memahami metode serangan, dampaknya, serta pendekatan mitigasinya. Hasil penelitian menunjukkan bahwa serangan adversarial dapat secara signifikan menurunkan performa model deep learning. Untuk mengatasinya, Autoencoder terbukti efektif dalam memulihkan data yang diserang dan meningkatkan akurasi prediksi. Selain itu, teknik augmentasi data dapat memperkuat ketahanan model, terutama pada dataset yang tidak seimbang, serta mengurangi risiko overfitting. Dengan menerapkan kerangka kerja SEMMA (Sample, Explore, Modify, Model, and Assess), studi ini membuktikan bahwa serangan FGSM yang hanya menambahkan sedikit noise dapat menggagalkan prediksi model, namun dapat dipulihkan secara efektif oleh Autoencoder. Penelitian ini memberikan kontribusi penting dalam memahami serangan adversarial dalam bidang medis dan menawarkan strategi pertahanan yang menjanjikan.
Copyrights © 2025