Apa jadinya jika moralitas dikodekan dalam barisan angka? Atau lebih tepatnya: apa yang tersisa dari etika ketika ia diproses oleh logika biner? Inilah absurditas kontemporer yang sedang digadang-gadang oleh dunia yang terlalu mabuk pada kecerdasan buatan. Artikel Computational Machine Ethics: A Survey karya Tammy Zhong, Yang Song, Raynaldio Limarga, dan Maurice Pagnucco (2025) memaparkan dengan rapi bagaimana algoritma mulai diajari untuk menjadi "bermoral". Tapi tunggu dulu---sejak kapan moralitas bisa diajarkan oleh sesuatu yang tak memiliki kehendak bebas?
Para akademisi di artikel itu tampak penuh semangat mengklasifikasikan pendekatan etika ke dalam tiga kategori elegan: source, decision, dan evaluation. Terdengar seperti menu sarapan pagi yang terstruktur, tapi sejatinya, ini adalah sebuah proyek besar pengerdilan etika menjadi prosedur teknis. Kita sedang menyaksikan bagaimana nilai-nilai luhur kemanusiaan dikemas menjadi sintaks untuk mesin yang bahkan tidak tahu arti dari "menyesal".
Bayangkan: seorang anak kecil menangis karena robot pelayan di rumah menolak memberinya makanan ringan atas nama "prinsip kesehatan". Robot itu tidak salah. Tapi apakah ia baik? Inilah dilema yang tidak bisa dijawab oleh "utility-based approach" atau "deontic logic". Karena kebaikan bukanlah hasil dari perhitungan, melainkan pergumulan batin. Dan mesin, sayangnya, tak punya batin.
Para perancang etika mesin dengan bangga menyebut bahwa pendekatan mereka didasarkan pada deontology, utilitarianism, hingga virtue ethics. Sebuah parade filosofis yang tampak intelektual. Tapi di balik semua itu, mereka lupa satu hal kecil: mesin tidak punya niat. Mereka bisa meniru keputusan manusia, tapi tak pernah memahami maknanya. Kata Kant, moralitas adalah soal autonomi rasional. Maka ketika mesin diprogram untuk mengikuti moralitas, ia bukan otonom, melainkan budak kode.
Lucunya, para pengembang CME (Computational Machine Ethics) berdebat panjang tentang mana yang lebih baik---top-down (berbasis aturan) atau bottom-up (berbasis data). Mereka seperti murid filsafat yang sibuk meributkan metode berpikir, tapi lupa bertanya: apakah subjeknya pantas untuk berpikir moral? Ini seperti mengajari sapi bermain catur---ia mungkin bisa menggerakkan pion, tapi tak pernah mengerti apa itu skakmat.
Lebih ironis lagi, mesin-mesin ini dilatih dengan "data moral" dari manusia. Seolah-olah mayoritas manusia adalah moral exemplar. Lihatlah dataset Moral Machine yang menjadi rujukan utama. Dihimpun dari preferensi pengguna internet yang anonim, bias, dan seringkali impulsif. Ini bukan etika, ini populisme moral. Kita menganggap mesin bisa diajari etika dengan meniru kerumunan. Tapi bukankah moralitas justru lahir ketika seseorang melawan arus, bukan mengikuti massa?
Masuk lebih dalam, kita jumpai ironi lain: evaluation. Para peneliti mencoba menilai apakah mesin telah "bermoral" dengan metrik kuantitatif: skor, akurasi, efisiensi. Betapa menyedihkan. Apakah kita benar-benar percaya bahwa empati bisa dinilai dengan computational efficiency? Ini sama lucunya dengan menilai kejujuran dari jumlah like di media sosial.
Dalam semangat teknokratik, para insinyur etika ini justru membunuh apa yang mereka coba hidupkan. Mereka menganggap etika sebagai sistem logika, bukan sebagai kesadaran eksistensial. Nietzsche pernah bilang, "He who fights monsters should see to it that he himself does not become a monster." (Siapa pun yang melawan monster harus memastikan bahwa dirinya sendiri tidak berubah menjadi monster). Hari ini, para pencipta etika mesin sedang menciptakan monster dengan wajah moral.
Mereka lupa, moralitas adalah hasil dari pergumulan tragis manusia: antara keinginan dan kewajiban, antara rasa bersalah dan pengampunan. Mesin tidak merasa bersalah. Mesin tidak bisa memaafkan. Maka mesin, pada dasarnya, tidak bisa bermoral. Mereka bisa berpura-pura, ya. Tapi bukankah pura-pura bermoral adalah bentuk kemunafikan yang paling berbahaya?
Apakah ini berarti kita harus menolak semua bentuk etika dalam AI? Tidak. Tapi kita harus sadar bahwa etika mesin adalah etika simulatif, bukan autentik. Ia berguna sebagai pagar, bukan sebagai panutan. Mesin harus dibatasi, bukan diberi kepercayaan. Memberi otonomi moral pada AI sama bodohnya seperti memberi pedang pada patung.
Maka, CME, betapapun canggihnya, adalah proyek utopis yang sedang mabuk teknologika. Ia menyamar sebagai etika, padahal hanya perpanjangan dari logika pasar dan efisiensi sistem. Kita harus berhenti menganggap bahwa bisa menghitung nilai berarti memahami nilai. Kita bisa memprogram robot untuk tidak mencuri, tapi kita tak bisa mengajarinya mengapa mencuri itu salah. Karena pemahaman itu membutuhkan sesuatu yang belum pernah dan tidak akan pernah dimiliki mesin: kesadaran akan penderitaan yang kita timbulkan pada yang lain.