Seiring waktu, kemajuan teknologi di seluruh dunia berlangsung dengan sangat cepat. Sayangnya, perkembangan ini kadang memunculkan masalah tak terduga.
Tahun lalu, ada berbagai penyalahgunaan AI seperti modus penipuan mulai dari deepfake, kloning suara, hingga phishing berbasis AI yang muncul dengan cukup masif. Namun tampaknya itu baru pemanasan bagi para pelaku kriminal siber.
Bahkan, ada prediksi bahwa pada tahun ini penipuan bertenaga AI akan menjadi ancaman utama, menargetkan dana di sektor fintech hingga rekening bank. Kejahatan siber kini dibekali "senjata" canggih yang sukar dilacak. Menurut laporan Forbes, AI tidak hanya dipakai untuk meningkatkan produktivitas, tetapi juga dipakai sebagai alat para sindikat penipuan global.
Berikut empat jenis penyalahgunaan AI dengan modus penipuan yang perlu diwaspadai oleh masyarakat dan perusahaan:
1. Deepfake & AI dalam Serangan Email Bisnis (BEC)
Modus BEC (Business Email Compromise) semakin maju dengan dukungan AI. Pelaku kini mampu membuat video dan audio palsu yang sangat nyata. Di Hong Kong, misalnya, penjahat menyamar sebagai CEO melalui panggilan Zoom palsu, lalu memerintahkan pegawai mentransfer dana hampir Rp480miliar. Di Amerika Serikat, 53% profesional akuntansi mengaku pernah menjadi target BEC, sementara 40% email BEC sekarang sepenuhnya dibuat oleh AI.
2. Chatbot Penipu Asmara
Selain melibatkan manusia, skema penipuan berkedok asmara kini memakai chatbot AI yang otonom. Karena percakapan terasa begitu alami, korban sering kesulitan membedakan apakah mereka berinteraksi dengan manusia atau mesin. Bahkan pelaku di Nigeria pernah membocorkan cara kerjanya melalui video di media sosial.
3. "Pig Butchering" Skala Besar dengan AI
Penipuan investasi berpura-pura berkedok asmara atau peluang bisnis yang dikenal sebagai "pig butchering" dan telah dijalankan secara massal berkat AI. Dengan alat seperti "Instagram Automatic Fans", pesan otomatis dikirim untuk memancing korban, misalnya, "Teman saya merekomendasikan kamu, apa kabar?" Penipu juga menggunakan deepfake dan kloning suara untuk membuat panggilan video palsu yang lebih meyakinkan.