Perkembangan teknologi kecerdasan buatan (AI) yang semakin otonom menciptakan tantangan fundamental dalam hukum pidana, khususnya terkait prinsip mens rea atau unsur kesalahan mental. Penelitian yuridis normatif ini menganalisis problematika penentuan niat jahat ketika tindak pidana telematika dilakukan oleh atau melalui sistem AI otonom. Hasil penelitian menunjukkan ketidaksesuaian doktrin mens rea tradisional dengan karakteristik AI yang beroperasi melalui algoritma machine learning tanpa kesadaran atau kehendak manusiawi. Kasus seperti Flash Crash 2010, chatbot Tay Microsoft, kecelakaan kendaraan otonom Uber, dan pinjol ilegal AI-driven menunjukkan kekosongan hukum dalam atribusi pertanggungjawaban pidana. Problematika utama meliputi ketidakjelasan subjek hukum pertanggungjawaban, kesulitan membuktikan unsur sengaja atau lalai pada autonomous learning systems, kompleksitas kausalitas dalam black box AI, dan ketidaksesuaian sanksi pidana tradisional. Studi komparatif menunjukkan EU AI Act menerapkan risk-based framework dengan strict liability untuk high-risk systems, Amerika Serikat menggunakan pendekatan sektoral, sementara Singapura dan Jepang mengembangkan AI operator liability. Faktor penyebab kesulitan meliputi kompleksitas teknis AI, kecepatan inovasi melebihi adaptasi hukum, opacity AI decision-making, fragmentasi ekosistem AI, dan ketidaksesuaian fundamental antara struktur AI dengan asumsi hukum pidana. Penelitian merekomendasikan rekonstruksi doktrin pertanggungjawaban pidana berbasis hybrid approach: strict liability untuk high-risk AI systems, expanded vicarious liability untuk developers dan operators dengan due diligence requirements, serta regulatory offense framework khusus AI.
Copyrights © 2026