Tidak semua kelompok masyarakat tercermin secara proporsional dalam data pelatihan. Kelompok minoritas, masyarakat adat, atau budaya non-Barat sering kali direpresentasikan dalam jumlah kecil atau bahkan karikatural.
Hal ini membuat AI kurang akurat atau bahkan salah kaprah ketika membahas topik-topik terkait.
Contoh konkret:
Ketika ditanya tentang "pesta pernikahan," AI mungkin lebih sering menggambarkannya dengan gaun putih dan gereja, meskipun di banyak budaya, pernikahan tradisional sangat berbeda, seperti menggunakan pakaian adat Bugis atau upacara adat Bali.
Mengapa ini penting?
Karena AI yang tidak mewakili keragaman dunia bisa mempersempit pemahaman kita tentang realitas global, bahkan membentuk stereotip baru.
3. Bias Pemodelan (Model Bias)
Bahkan jika data sudah cukup beragam, struktur dan algoritma model itu sendiri bisa memperkenalkan bias tambahan. Ini terjadi karena dalam proses pelatihan, model cenderung memilih pola-pola yang "paling mudah" dipelajari, yakni pola yang lebih sering muncul atau lebih sederhana dipahami.
Contoh konkret:
AI mungkin mereduksi kompleksitas isu sosial, seperti migrasi, hanya menjadi soal "ekonomi" tanpa menyentuh faktor lain seperti konflik, perubahan iklim, atau sejarah kolonialisme.
Mengapa ini berbahaya?
Karena respons yang terlalu disederhanakan bisa menyesatkan pemahaman publik terhadap isu yang sebenarnya kompleks dan berlapis.
4. Bias Interpretasi (Interpretation Bias)
Kadang, bukan AI yang salah, tetapi manusia yang keliru memahami jawaban AI. Pengguna sering kali membawa masuk prasangka atau keyakinannya sendiri saat menafsirkan respons AI, dan melihat apa yang ingin dilihat.
Contoh konkret:
Dalam percakapan tentang politik, satu kalimat netral dari AI bisa ditafsirkan sebagai "mendukung" satu kubu hanya karena pengguna membacanya dengan kacamata politik pribadinya.