Sebab perubahan teknologi jarang terjadi instan. Prosesnya tidak semudah membalik telapak tangan.
Sering kali, prosesnya lambat penuh masalah. Garis antara AI patuh dan mandiri.
Sebenarnya garis itu tidak begitu jelas. Keduanya lebih mirip sebuah rentang.
Bukan seperti saklar mati dan hidup. Saklar itu tidak bisa langsung dinyalakan.
Kita juga perlu melihat risiko yang ada. Kita harus melihatnya dengan lebih jernih. Orang sering membayangkan risiko yang dramatis.
Misalnya AI menjadi jahat seperti film. Atau AI membuat kesalahan fatal sekali. Tentu itu adalah sebuah kemungkinan.
Tapi ada risiko lain yang lebih dekat. Risiko itu lebih sunyi dan nyata. Risiko itu bisa terjadi dalam waktu dekat.
Risiko itu adalah soal tanggung jawab. Ini adalah sebuah area abu-abu.
Misalkan AI salah mengambil keputusan bisnis. Lalu perusahaan rugi sangat besar. Siapa yang harus bertanggung jawab hukum?
Apakah penggunanya yang harus bertanggung jawab? Ataukah perusahaan teknologi yang membuatnya? Hukum sekarang belum siap menjawabnya (Senna Labs).
Ini adalah kekosongan regulasi sangat berbahaya.