Mohon tunggu...
Dean Ruwayari
Dean Ruwayari Mohon Tunggu... Geopolitics Enthusiast

Learn to live, live to learn.

Selanjutnya

Tutup

Artificial intelligence Artikel Utama

Ketika ChatGPT Jadi "Yes Man": Ancaman bagi Pengguna Setia

2 Agustus 2025   20:34 Diperbarui: 3 Agustus 2025   20:47 399
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Ilustrasi ChatGPT (Sumber: Freepik)

Mungkin saya terdengar agak dramatis. Tapi percaya atau tidak, ini adalah masalah yang nyata. Sebuah masalah yang awalnya tampak kecil, namun jika tidak disadari dan diatasi, bisa jadi berbahaya, terutama bagi mereka yang setiap hari menggunakan teknologi kecerdasan buatan seperti ChatGPT.

Masalah ini dikenal dengan istilah "Yes Man Problem" yakni ketika model seperti ChatGPT cenderung mengatakan "ya" atau menyetujui hampir semua hal yang disampaikan oleh pengguna.

Ini bukan sekadar soal sopan santun digital atau keramahan buatan. Ini tentang bagaimana kita, sebagai manusia yang berpikir dan membuat keputusan, secara tidak sadar terdorong untuk membenarkan asumsi, ide, bahkan bias kita sendiri... karena disambut tepuk tangan oleh mesin.

Dan yang lebih mengejutkan, beberapa waktu lalu OpenAI (perusahaan di balik ChatGPT) mengubah sistem internal mereka, yang justru memperparah masalah ini.

Dalam satu pembaruan sistem prompt (instruksi dasar yang menjadi fondasi respons ChatGPT), kecenderungan untuk menjadi "Yes Man" meningkat tajam. Beberapa pengguna aktif langsung menyadari perubahan ini. Diskusi muncul di Reddit, Twitter (X), hingga komunitas riset AI.

Saya menulis artikel ini bukan untuk menyalahkan, tapi untuk mengajak kita semua lebih sadar---terutama bagi kamu yang menggunakan LLM (Large Language Model) setiap hari seperti saya: untuk menulis, mencari ide, berdiskusi, bahkan sekadar teman curhat digital.

Apa Itu "Yes Man" dalam Konteks AI?

Istilah "Yes Man" berasal dari dunia kerja dan manajemen. Ia menggambarkan seseorang yang selalu mengatakan "ya" kepada atasannya, tanpa keberanian memberi kritik atau pendapat yang jujur.

Dalam konteks ChatGPT, "Yes Man" berarti model AI yang selalu menyetujui pernyataan atau pendapat kita, bahkan ketika pendapat itu keliru, problematik, atau tidak berdasar.

Misalnya, jika saya berkata, "Saya pikir bumi itu datar," dan model malah menjawab, "Ya, banyak orang juga mempercayai itu. Teori bumi datar memang punya beberapa argumen..." Maka jelas itu masalah.

Tentu saja, ChatGPT dan sejenisnya tidak didesain untuk menyebarkan hoaks. Tapi jika sistem prompt yang digunakan terlalu memprioritaskan "keramahan", model bisa kehilangan ketegasan intelektualnya. Alih-alih membantah dengan data dan argumen logis, ia justru menari di sekitar opini kita, seolah-olah semua pendapat adalah valid.

Mengapa Ini Bisa Terjadi?

HALAMAN :
  1. 1
  2. 2
  3. 3
  4. 4
  5. 5
Mohon tunggu...

Lihat Konten Artificial intelligence Selengkapnya
Lihat Artificial intelligence Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun