Integrasi kecerdasan buatan (AI) dalam sistem keadilan restoratif telah membawa paradigma baru sekaligus tantangan kompleks dalam penegakan hukum pidana. Penelitian ini mengkaji secara kritis dampak bias algoritmik terhadap kelompok marginal dalam konteks keadilan restoratif di Indonesia. Dengan menggunakan pendekatan yuridis normatif-kritis dan analisis kualitatif, penelitian ini menganalisis berbagai dokumen hukum, laporan kebijakan, dan studi kasus internasional seperti sistem COMPAS di AS yang terbukti memiliki bias rasial. Hasil penelitian mengungkap beberapa temuan krusial: pertama, algoritma cenderung mereproduksi ketidakadilan struktural yang tertanam dalam data historis; kedua, implementasi sistem prediktif seperti SPPT-TI di Indonesia berpotensi memperparah ketimpangan tanpa mekanisme pengawasan yang memadai; ketiga, prinsip-prinsip dasar keadilan restoratif seperti partisipasi dan kesetaraan terancam tergeser oleh logika teknis yang kaku. Penelitian ini menawarkan rekomendasi kebijakan komprehensif yang meliputi: (1) audit etik berkala terhadap sistem algoritma, (2) pengembangan model hybrid yang memadukan teknologi dengan kearifan lokal, (3) pelatihan etika digital bagi aparat penegak hukum, (4) penguatan regulasi berbasis HAM, serta (5) mekanisme partisipasi publik dalam pengembangan sistem. Temuan penelitian ini tidak hanya relevan bagi pengembangan kebijakan hukum pidana di Indonesia, tetapi juga memberikan kontribusi signifikan dalam diskursus global tentang etika AI dalam sistem peradilan. Penelitian lanjutan diperlukan untuk menguji efektivitas model hybrid dalam konteks lokal yang spesifik.