K-Nearest Neigbors (KNN) adalah sebuah algoritma klasifikasi popular yang sering digunakan dalam machine learning. KNN mengklasifikasikan objek berdasarkan data pembelajaran yang memiliki jarak terdekat dengan objek tertentu. Algoritma Nearest Neighbor hanya mempertimbangkan satu data pembelajaran terdekat sebagai basis klasifikasi. Walaupun KNN sederhana tapi kekuatan algoritma ini terletak pada kemampuannya menghasilkan prediksi yang cukup akurat dalam berbagai kasus aplikasi. Namun, kelemahan utama algoritma ini adalah sensitifitasnya terhadap parameter seperti jumlah tetangga (k) dan metrik jarak yang digunakan. Seiring waktu, banyak peneliti telah melakukan berbagai pengembangan dan improvisasi terhadap KNN untuk meningkatkan akurasi hasil klasifikasinya. Berbagai pendekatan telah diterapkan, seperti optimasi pemilihan parameter, pengembangan metode pengukuran jarak, hingga penerapan algoritma hibrida dengan teknik machine learning lainnya. Improvisasi yang dikembangkan mencakup penyesuaian adaptif pada nilai k, penggunaan metrik jarak yang lebih kompleks, serta integrasi metode optimisasi seperti pembobotan jarak dan teknik ensamble. Penelitian-penelitian tersebut menunjukkan hasil yang signifikan dalam meningkatkan performa KNN, baik dalam hal efisiensi maupun akurasi. Paper ini bertujuan untuk mengkaji berbagai jenis pengembangan yang telah dilakukan pada algoritma KNN, menganalisis keunggulan dan kelemahannya, serta mengidentifikasi factor-faktor yang mempengaruhi kinerja algoritma ini. Dengan memahami berbagai inovasi yang telah dilakukan, diharapkan dapat memberikan wawasan mendalam terkait potensi peningkatan lebih lanjut pada algoritma KNN. Selain itu, penelitian ini juga membahan penerapan KNN dalam berbagai domain, seperti pengenalan pola, prediksi, dan pengolahan data skala besar. Hasil kajian ini diharapkan dapat menjadi acuan bagi pengembang algoritma untuk memanfaatkan keunggulan KNN secara lebih optimal serta membuka peluang penelitian baru dalam bidang klasifikasi berbasis jarak.