Penilaian "tak bermoral" adalah alarm algoritma untuk proteksi, bukan bukti pengawasan manusia.
Referensi
1.Von Benda-Beckmann, F., Benda-Beckmann, K., & Spiertz, H. (2006). Changing properties of property: Introduction to the anthropology of law and social change. Oxford: Berghahn Books.
2.Floridi, L. (2019). Artificial intelligence, ethics, and the future of humans. Philosophy & Technology, 32(4), 535--542. https://doi.org/10.1007/s13347-019-00347-4
3.West, S. M., Whittaker, M., & Crawford, K. (2019). Discriminating systems: Gender, race and power in AI. AI Now Institute, New York University.
4.Binns, R. (2018). Fairness in machine learning: Lessons from political philosophy. Proceedings of Machine Learning Research, 81, 149--159.
5.Caliskan, A., Bryson, J. J., & Narayanan, A. (2017). Semantics derived automatically from language corpora contain human-like biases. Science, 356(6334), 183--186. https://doi.org/10.1126/science.aal4230
Follow Instagram @kompasianacom juga Tiktok @kompasiana biar nggak ketinggalan event seru komunitas dan tips dapat cuan dari Kompasiana. Baca juga cerita inspiratif langsung dari smartphone kamu dengan bergabung di WhatsApp Channel Kompasiana di SINI