Lihat ke Halaman Asli

Deepfake, Kekerasan Seksual Digital yang Mengintai Perempuan

Diperbarui: 5 Juli 2025   15:31

Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.

Ilustrasi Deepfake (Sumber: Facephi/Kredit Foto))

"Itu bukan tubuhku. Tapi wajah itu... jelas wajahku."

Di tengah ledakan teknologi kecerdasan buatan (AI), perempuan kini menghadapi bentuk baru kekerasan seksual digital. Wajah mereka bisa diambil dari Instagram, ditempelkan ke tubuh dalam video porno palsu menggunakan teknologi deepfake, dan disebarkan tanpa izin. Ini adalah kekerasan yang tak menyentuh kulit, tapi meninggalkan luka yang dalam dan nyata.

Apa Itu Deepfake dan Mengapa Berbahaya?

Deepfake adalah hasil manipulasi visual menggunakan AI untuk mengubah wajah dan suara seseorang agar tampak berada dalam situasi yang tidak nyata. Meski awalnya dikembangkan untuk film dan hiburan, deepfake kini disalahgunakan sebagai alat kekerasan seksual berbasis teknologi, terutama terhadap perempuan.

Riset menunjukkan bahwa lebih dari 96% video deepfake di internet adalah konten porno palsu, dengan wajah perempuan sebagai target utama. Bahkan perempuan biasa---mahasiswi, pekerja, aktivis---bisa jadi korban hanya karena fotonya beredar di media sosial.

Deepfake Adalah Kekerasan Seksual Tanpa Sentuhan

Ketika wajah perempuan ditempelkan ke tubuh dalam video palsu, yang terjadi adalah pelanggaran privasi digital sekaligus perampasan identitas. Banyak korban mengalami trauma psikologis, pengucilan sosial, bahkan kehilangan pekerjaan karena video deepfake porno yang mereka sendiri tidak tahu kapan dan oleh siapa dibuat.

Fenomena ini adalah bagian dari kekerasan berbasis gender online (KBGO), yang seringkali diabaikan karena tidak menimbulkan luka fisik. Padahal, tubuh digital perempuan juga layak dilindungi. Luka emosional yang ditinggalkan video palsu bisa sama merusaknya dengan kekerasan nyata.

Hukum Indonesia Masih Tertinggal

Hingga kini, regulasi tentang deepfake di Indonesia masih sangat minim. UU ITE belum secara spesifik mengatur penyalahgunaan AI untuk manipulasi wajah dan penyebaran video palsu. Polisi pun sering tak tahu harus menangani dari mana. Di beberapa kasus, korban justru disalahkan karena "terlalu sering selfie."

Ini mencerminkan kegagapan hukum dalam menghadapi kasus deepfake yang kian kompleks. Negara harus segera merumuskan perlindungan hukum untuk korban kekerasan seksual digital, termasuk mekanisme penghapusan cepat dan pelacakan pelaku di platform anonim seperti Telegram dan Reddit.

Luka Digital, Trauma Nyata

Korban kekerasan seksual online karena deepfake sering tak punya ruang aman untuk bicara. Mereka dipermalukan, tidak dipercaya, dan dibiarkan sendirian menghadapi serangan digital. Trauma ini berlangsung lama, apalagi ketika konten deepfake porno terus menyebar tanpa kendali.

Halaman Selanjutnya


BERI NILAI

Bagaimana reaksi Anda tentang artikel ini?

BERI KOMENTAR

Kirim

Konten Terkait


Video Pilihan

Terpopuler

Nilai Tertinggi

Feature Article

Terbaru

Headline