Cerita ini sempat meledak di internet pada Desember 2023. Di Amerika, sebuah chatbot milik dealer mobil tiba-tiba "berjanji" menjual mobil seharga satu dolar saja (Business Insider, 2023).
Konyol, ya. Nyatanya tidak ada satu pun mobil yang benar-benar berpindah tangan. Tapi insiden itu menyingkap masalah besar lain. Ternyata betapa gampangnya AI dipermainkan lewat perintah tersembunyi.
Fenomena ini punya nama sendiri: prompt injection. Cara kerjanya sederhana. Seseorang menyelipkan instruksi berbahaya ke dalam teks biasa. AI membacanya bersama teks lain dan menganggap semuanya sebagai hal yang harus dipatuhi.
Ia tidak membedakan mana informasi, mana perintah. Ia menelan semuanya lalu menjalankannya. Tanpa sadar. Bukan karena AI "bodoh", melainkan karena seperti itulah ia dirancang untuk bekerja (PortSwigger). Terlalu patuh pada instruksi.
Masalahnya sering bikin salah paham. Banyak orang mengira AI bisa ditipu seperti manusia. Seolah bisa dibohongi atau dibujuk.
Padahal AI bukan makhluk hidup. Tidak punya perasaan, tidak punya kesadaran.
Ia hanyalah mesin yang sangat canggih dan sangat patuh. Rasa curiga tidak ada dalam kamusnya.
Ia tidak bisa membedakan data biasa dari perintah jahat. Buatnya, semua teks adalah instruksi yang harus diproses.
Ini bukan tentang kecerdasan yang kalah. Ini tentang desain sistem yang memang menuruti perintah apa adanya.
Ancaman ini nyata dan serius. Kasus mobil satu dolar mungkin terdengar lucu. Yang menakutkan adalah skenario ketika AI terhubung ke emailmu atau data pekerjaanmu.
Instruksi tersembunyi bisa memerintahkannya mengambil data. Bahkan mengirimkannya keluar tanpa izin.