Perkembangan kecerdasan buatan (Artificial Intelligence/AI) kini melaju sangat pesat. Teknologi yang memungkinkan pembuatan foto, video, dan suara palsu yang sangat realistis ini membawa berbagai manfaat. Namun, di balik euforia itu, tersimpan ancaman serius bagi kebenaran, kepercayaan, dan keamanan masyarakat.
AI generatif telah mengubah cara kita memproduksi dan mengonsumsi informasi. Dengan teknologi ini, siapa pun bisa membuat video atau foto yang tampak nyata, namun sepenuhnya palsu. Ini bukan sekadar soal rekayasa biasa, melainkan bentuk kebohongan yang sulit dibedakan dari kenyataan.
Siapa yang paling rentan menjadi korban? Kelompok yang selama ini sudah berada di garis pinggir: anak-anak, perempuan, masyarakat awam, dan para aktivis. Anak-anak dan remaja sering menjadi sasaran bullying digital. Wajah mereka disalahgunakan dalam video tak senonoh yang beredar luas di media sosial, menghancurkan reputasi dan mental mereka sebelum usia dewasa.
Perempuan pun menjadi target utama deepfake pornografi. Ratusan kasus sudah terjadi di berbagai negara, termasuk Indonesia. Wajah mereka tanpa izin ditempelkan ke video cabul, dan dampaknya bukan hanya trauma psikologis, tetapi juga rusaknya nama baik yang sulit dipulihkan.
Masyarakat umum juga terdampak disinformasi berbasis AI. Video palsu yang tampak meyakinkan kerap digunakan untuk menyebar kebencian, menebar propaganda, bahkan memicu konflik sosial. Dengan tingkat literasi digital yang rendah, banyak orang terjebak dalam pusaran kebohongan digital.
Yang lebih mengkhawatirkan, para jurnalis, aktivis, dan pembela hak asasi manusia juga rentan menjadi sasaran fitnah berbasis deepfake. Mereka bisa didiskreditkan dengan video rekayasa yang tampak seperti bukti nyata. Ketika realitas bisa dimanipulasi begitu mudah, siapa pun bisa menjadi korban.
Krisis ini bukan hanya soal teknologi, melainkan juga soal moral dan sosial. Fakta yang menjadi fondasi pengadilan, media, dan demokrasi kini mulai goyah. Masyarakat menjadi skeptis terhadap semua informasi, dan memilih narasi yang sesuai selera daripada kebenaran. Krisis epistemik ini membahayakan sendi-sendi kehidupan bermasyarakat.
Sayangnya, kemajuan teknologi AI berjalan jauh lebih cepat daripada regulasi dan kesadaran publik. Banyak perusahaan teknologi lebih sibuk memamerkan kemampuan AI menciptakan konten, dibandingkan mengembangkan alat pendeteksi dan perlindungan terhadap penyalahgunaan. Regulasi di banyak negara belum mampu mengatur dan menjerat penyebar konten palsu secara efektif.
Untuk itu, perlu langkah nyata yang tidak bisa ditunda:
Pertama, regulasi ketat wajib diberlakukan. Semua konten yang dihasilkan AI harus memiliki tanda digital (watermark) yang tidak bisa dihapus. Penyebaran konten palsu yang merugikan harus masuk dalam kategori kejahatan digital berat, dengan sanksi hukum tegas bagi pelaku.