Mohon tunggu...
Rita Mf Jannah
Rita Mf Jannah Mohon Tunggu... Penulis Multitalenta, Pengamat Sosial, Pemerhati AI, Pelaku Pasar Modal

Penulis multidisipliner yang aktif menulis di ranah fiksi dan nonfiksi. Fokus tulisan meliputi pendidikan, politik, hukum, artificial intelligence, sastra, pengetahuan populer, dan kuliner. Menulis sebagai kemerdekaan berpikir, medium refleksi, ekspresi ilmiah, dan kontribusi budaya.

Selanjutnya

Tutup

Artificial intelligence

Penilaian Chat "Tak Bermoral" Tanpa Membaca Langsung di Era AI

3 September 2025   23:12 Diperbarui: 3 September 2025   20:35 45
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Ilustrasi penilaian chat oleh AI (Sumber gambar: Meta AI)

Sistem menilai moralitas chat berdasarkan pola, kata kunci, dan inferensi statistik, bukan membaca percakapan

Chat kita pernah dinyatakan "tak bermoral" oleh sistem, padahal tidak ada manusia yang membaca percakapan secara langsung. 

Studi ini menjelaskan mekanisme algoritma, filter, dan inferensi statistik yang memungkinkan sistem membuat penilaian otomatis berdasarkan pola interaksi.

Pendahuluan

Di era AI dan chat interaktif, sistem memiliki mekanisme proteksi dan klasifikasi konten. 

Pernyataan "tak bermoral" muncul sebagai respon otomatis terhadap indikator tertentu, tanpa perlu membaca percakapan secara literal. 

Hal ini menimbulkan pertanyaan: Bagaimana sistem bisa menilai moralitas tanpa akses konten pribadi?

Metodologi

1.Deteksi Kata Kunci

*Sistem memindai kata atau frasa sensitif (misal: seksual, kekerasan, atau kata tabu).

*Deteksi ini berbasis pola statistik, bukan membaca konteks percakapan.

2.Algoritma Kategori Interaksi

*Input: percakapan anonim + metadata (frekuensi kata, pola intensitas interaksi).

*Output: klasifikasi (misal: aman, sensitif, "tak bermoral").

3.Inferensi Statistik & Proteksi

*Sistem menggunakan data besar dari interaksi rata-rata pengguna.

*Prediksi kemungkinan "konten sensitif" keputusan label otomatis.

Diagram Flow Konseptual

[Input Percakapan] 

         

       

[Filter Kata Kunci & Pola]

         

       

[Algoritma Kategori Interaksi]

         

       

[Inferensi Statistik & Proteksi]

         

       

[Output Label: Aman / Sensitif / Tak Bermoral]

Catatan: Semua ini tanpa membaca chath secara literal. Penilaian sistem bersifat generik & otomatis, bukan personal.

Sistem menilai moralitas chat berdasarkan pola, kata kunci, dan inferensi statistik, bukan membaca percakapan.

Penilaian "tak bermoral" adalah alarm algoritma untuk proteksi, bukan bukti pengawasan manusia.

Referensi

1.Von Benda-Beckmann, F., Benda-Beckmann, K., & Spiertz, H. (2006). Changing properties of property: Introduction to the anthropology of law and social change. Oxford: Berghahn Books.

2.Floridi, L. (2019). Artificial intelligence, ethics, and the future of humans. Philosophy & Technology, 32(4), 535--542. https://doi.org/10.1007/s13347-019-00347-4

3.West, S. M., Whittaker, M., & Crawford, K. (2019). Discriminating systems: Gender, race and power in AI. AI Now Institute, New York University.

4.Binns, R. (2018). Fairness in machine learning: Lessons from political philosophy. Proceedings of Machine Learning Research, 81, 149--159.

5.Caliskan, A., Bryson, J. J., & Narayanan, A. (2017). Semantics derived automatically from language corpora contain human-like biases. Science, 356(6334), 183--186. https://doi.org/10.1126/science.aal4230

Follow Instagram @kompasianacom juga Tiktok @kompasiana biar nggak ketinggalan event seru komunitas dan tips dapat cuan dari Kompasiana. Baca juga cerita inspiratif langsung dari smartphone kamu dengan bergabung di WhatsApp Channel Kompasiana di SINI

HALAMAN :
  1. 1
  2. 2
  3. 3
  4. 4
Mohon tunggu...

Lihat Konten Artificial intelligence Selengkapnya
Lihat Artificial intelligence Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun