"Itu bukan tubuhku. Tapi wajah itu... jelas wajahku."
Di tengah ledakan teknologi kecerdasan buatan (AI), perempuan kini menghadapi bentuk baru kekerasan seksual digital. Wajah mereka bisa diambil dari Instagram, ditempelkan ke tubuh dalam video porno palsu menggunakan teknologi deepfake, dan disebarkan tanpa izin. Ini adalah kekerasan yang tak menyentuh kulit, tapi meninggalkan luka yang dalam dan nyata.
Apa Itu Deepfake dan Mengapa Berbahaya?
Deepfake adalah hasil manipulasi visual menggunakan AI untuk mengubah wajah dan suara seseorang agar tampak berada dalam situasi yang tidak nyata. Meski awalnya dikembangkan untuk film dan hiburan, deepfake kini disalahgunakan sebagai alat kekerasan seksual berbasis teknologi, terutama terhadap perempuan.
Riset menunjukkan bahwa lebih dari 96% video deepfake di internet adalah konten porno palsu, dengan wajah perempuan sebagai target utama. Bahkan perempuan biasa---mahasiswi, pekerja, aktivis---bisa jadi korban hanya karena fotonya beredar di media sosial.
Deepfake Adalah Kekerasan Seksual Tanpa Sentuhan
Ketika wajah perempuan ditempelkan ke tubuh dalam video palsu, yang terjadi adalah pelanggaran privasi digital sekaligus perampasan identitas. Banyak korban mengalami trauma psikologis, pengucilan sosial, bahkan kehilangan pekerjaan karena video deepfake porno yang mereka sendiri tidak tahu kapan dan oleh siapa dibuat.
Fenomena ini adalah bagian dari kekerasan berbasis gender online (KBGO), yang seringkali diabaikan karena tidak menimbulkan luka fisik. Padahal, tubuh digital perempuan juga layak dilindungi. Luka emosional yang ditinggalkan video palsu bisa sama merusaknya dengan kekerasan nyata.
Hukum Indonesia Masih Tertinggal
Hingga kini, regulasi tentang deepfake di Indonesia masih sangat minim. UU ITE belum secara spesifik mengatur penyalahgunaan AI untuk manipulasi wajah dan penyebaran video palsu. Polisi pun sering tak tahu harus menangani dari mana. Di beberapa kasus, korban justru disalahkan karena "terlalu sering selfie."
Ini mencerminkan kegagapan hukum dalam menghadapi kasus deepfake yang kian kompleks. Negara harus segera merumuskan perlindungan hukum untuk korban kekerasan seksual digital, termasuk mekanisme penghapusan cepat dan pelacakan pelaku di platform anonim seperti Telegram dan Reddit.
Luka Digital, Trauma Nyata
Korban kekerasan seksual online karena deepfake sering tak punya ruang aman untuk bicara. Mereka dipermalukan, tidak dipercaya, dan dibiarkan sendirian menghadapi serangan digital. Trauma ini berlangsung lama, apalagi ketika konten deepfake porno terus menyebar tanpa kendali.