3. Bias Algoritmik: Ketidakadilan yang Diotomatisasi
Keadilan tidak hanya bisa dirusak oleh manusia, tetapi juga oleh algoritma yang dibentuk dari data yang bias. Beberapa contoh yang mengemuka:
Sistem rekrutmen digital yang digunakan beberapa BUMN dan perusahaan swasta telah menunjukkan kecenderungan menyaring kandidat berdasarkan aksen, wajah, atau asal daerah---karena training data AI yang bias etnis dan geografis.
Dalam sistem kredit digital berbasis AI scoring, banyak UMKM dan individu dari daerah terpencil gagal mendapatkan akses pinjaman karena parameter algoritma yang mendiskriminasi profil dengan aktivitas digital yang minim.
Bahkan dalam sistem pemantauan publik berbasis CCTV AI (misalnya smart city), pengenalan wajah sering kali gagal mendeteksi wajah perempuan berhijab atau individu dari kelompok minoritas etnis.
Studi MIT (2020) bahkan menyebut bahwa beberapa sistem facial recognition global memiliki tingkat error 35% lebih tinggi terhadap wajah orang non-kulit putih---dan model serupa telah diadopsi tanpa penyesuaian lokal di Indonesia.
Dampak AI di Indonesia bukan lagi prediksi, tapi realitas yang mengendap di balik kebijakan yang lamban dan kesadaran publik yang minim.
Jika kita tidak segera menyusun strategi nasional yang adil, etis, dan adaptif, maka AI bukan akan menjadi alat kemajuan, melainkan mesin pendepakan diam-diam terhadap pekerja, kebenaran, dan keadilan.
Bab III: Ratu Narasi AI sebagai Konsep Alternatif dari Masyarakat
A. Definisi dan Fondasi Teoretis: Narasi Sosial menurut Ricoeur dan Harari
Dalam setiap peradaban, manusia tidak hanya hidup berdasarkan data atau fakta, tetapi lebih-lebih berdasarkan narasi---rangkaian makna kolektif yang membentuk identitas, memberi arah, dan menjelaskan masa depan. Narasi adalah "feromon sosial": seperti aroma kimia yang mengarahkan lebah, narasi mengarahkan masyarakat untuk bertindak, menilai, dan bermimpi bersama.