Perlindungan anak di era digital kini semakin bergantung pada teknologi kecerdasan buatan. Banyak organisasi dan lembaga hukum mengandalkan sistem AI untuk mendeteksi serta mencegah kejahatan seksual terhadap anak di dunia maya. Sistem ini bekerja cepat memindai konten visual dan teks yang mencurigakan.
Namun demikian, di balik kecanggihan teknologi, muncul kekhawatiran serius. Banyak pihak mempertanyakan bagaimana jika sistem salah mendeteksi? Siapa yang bertanggung jawab bila seorang individu dituduh tanpa bukti cukup hanya karena kesalahan algoritma?
Â
Peran Media dalam Membentuk Persepsi Perlindungan Anak di Era Digital
Penelitian dalam Ilomata International Journal of Social Science edisi Juli 2024 mengungkap bahwa framing media terhadap penggunaan AI dalam isu perlindungan anak berdampak signifikan pada pemahaman publik. Sebanyak 78% artikel media menyoroti konflik antara upaya perlindungan dan hak atas privasi.
Lebih lanjut, publik sering kali hanya mendapat narasi dari sudut pandang aparat hukum, perusahaan teknologi, atau lembaga perlindungan. Sebaliknya, suara anak-anak dan keluarganya justru minim terdengar.
Â
Risiko Teknologi dalam Sistem Perlindungan Anak Online
Pada awalnya, publik memandang AI sebagai solusi ideal. Akan tetapi, seiring waktu, sistem ini terbukti tidak sempurna. Banyak kasus menunjukkan adanya kesalahan dalam mendeteksi pelaku kejahatan. Bahkan, orang yang tidak bersalah bisa terkena dampaknya.
"Ketika AI membuat keputusan dalam isu sensitif seperti keselamatan anak, publik perlu tahu siapa yang bertanggung jawab jika sistem itu keliru," tulis peneliti.