Kedua, perusahaan teknologi. Mereka yang memutuskan untuk menggunakan algoritma tertentu, mengomersialkan, dan mendistribusikannya ke publik.
Di sinilah biasanya muncul konflik antara efisiensi dan etika. AI bisa memangkas biaya dan mempercepat proses, tapi kalau merugikan kelompok rentan, siapa yang mau bertanggung jawab?
Ketiga, pemerintah. Regulasi adalah lapis pelindung terakhir. Kecepatan inovasi teknologi membuat hukum dan etika selalu ketinggalan langkah.
Kita belum punya kerangka yang solid untuk memastikan AI bertindak sesuai prinsip keadilan, akuntabilitas, dan non-diskriminasi. Dalam banyak kasus, kebijakan masih reaktif---baru bergerak setelah terjadi kesalahan.
Yang menarik, tanggung jawab moral dalam konteks AI seringkali terpecah dan tersamar.
Para filsuf teknologi menyebutnya "diffused responsibility"---tidak ada satu pihak pun yang bisa ditunjuk dengan jelas.
Maka, yang terjadi bukan pertanggungjawaban, tapi saling lempar tangan. AI seolah jadi kambing hitam yang tidak bisa membela diri.
Kita perlu bertanya ulang: apakah sistem yang kita ciptakan---secanggih apa pun---masih mencerminkan nilai-nilai manusia?
AI bukanlah makhluk netral. Ia dibentuk oleh data historis yang penuh bias, oleh keputusan desain yang punya konsekuensi sosial, dan oleh nilai-nilai tertentu yang kita tanamkan secara diam-diam.
Jika tidak hati-hati, kita akan hidup dalam dunia di mana keputusan penting dibuat oleh sistem yang tahu banyak tentang kita, tapi tidak peduli pada kita.
Jadi kalau AI bikin salah, siapa yang harus kita tegur?