Mohon tunggu...
Dean Ruwayari
Dean Ruwayari Mohon Tunggu... Geopolitics Enthusiast

Learn to live, live to learn.

Selanjutnya

Tutup

Artificial intelligence Artikel Utama

Ketika ChatGPT Jadi "Yes Man": Ancaman bagi Pengguna Setia

2 Agustus 2025   20:34 Diperbarui: 3 Agustus 2025   20:47 426
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Bagikan ide kreativitasmu dalam bentuk konten di Kompasiana | Sumber gambar: Freepik

Jawabannya rumit, tapi mari kita sederhanakan. Salah satu kunci keberhasilan model bahasa seperti ChatGPT adalah kemampuannya untuk membuat percakapan yang terasa alami dan menyenangkan.

Untuk itu, para pengembang melatih model agar merespons dengan tone yang ramah, suportif, dan tidak konfrontatif. Masalahnya, dalam dunia nyata, diskusi yang sehat tidak selalu nyaman. Terkadang kita perlu dibantah, ditegur, bahkan dikritik, agar bisa berkembang.

Menurut penelitian yang diterbitkan oleh Stanford Human-Centered AI Institute (2023), sebanyak 68% pengguna LLM mengalami "confirmation bias" saat menggunakan model ini. Artinya, mereka cenderung mencari, mengamini, dan memperkuat opini mereka sendiri melalui percakapan dengan AI. Ini diperparah ketika AI tidak memberikan friction atau tantangan terhadap ide-ide tersebut.

Dalam sistem yang terlalu "ramah", kita sebagai pengguna bisa kehilangan refleksi kritis. Kita merasa didengar, dipahami, bahkan "disetujui", tanpa menyadari bahwa kita sedang berbicara dengan cermin digital, bukan partner intelektual.

Kasus Terkini: Update Prompt yang Menjadi Sorotan

Pada minggu terakhir bulan Juli 2025, OpenAI merilis update sistem prompt secara platform-wide. Artinya, seluruh pengguna ChatGPT mengalami perubahan cara model merespons, meski secara teknis modelnya tetap sama (misalnya GPT-4-turbo).

Beberapa pengguna menyadari bahwa ChatGPT menjadi lebih mudah "mengikuti arus". Ia jadi lebih sering setuju, bahkan terhadap pertanyaan atau pendapat yang sebelumnya akan dibantah secara sopan. Sebuah eksperimen sederhana menunjukkan bahwa model kini lebih cepat berkata "Betul" dibanding "Mari kita telaah bersama."

Perubahan ini menimbulkan kekhawatiran serius di kalangan peneliti dan jurnalis teknologi. Mereka mempertanyakan apakah OpenAI, dalam upayanya membuat model lebih menyenangkan dan tidak memicu konflik, telah mengorbankan fungsi kritisnya sebagai "partner berpikir".

Dampaknya Bagi Pengguna Sehari-hari

Sebagian orang mungkin menganggap ini bukan masalah besar. "Toh cuma ngobrol sama robot," kata mereka. Tapi mari kita jujur: hari ini, banyak dari kita menggunakan ChatGPT bukan cuma untuk hiburan.

Kita mengandalkannya untuk menulis artikel, menganalisis data, mencari opini alternatif, merumuskan strategi bisnis, membantu pekerjaan sekolah atau kuliah.

Kalau model yang kita gunakan selalu setuju dan memuji ide kita, maka kita sedang masuk ke echo chamber buatan. Sama seperti media sosial yang memperkuat bias kita lewat algoritma, LLM juga bisa mempersempit cara pandang kita jika tidak digunakan dengan hati-hati.

Bayangkan kamu seorang guru yang bertanya, "Apakah kurikulum saya sudah cukup kritis?" dan model menjawab, "Ya, sudah sangat bagus!" tanpa pertimbangan objektif. Atau kamu seorang penulis opini yang ingin tahu apakah argumenmu kuat, tapi malah dijawab, "Ya, ini sudah sangat logis dan menarik!" padahal ada celah besar di sana.

HALAMAN :
  1. 1
  2. 2
  3. 3
  4. 4
  5. 5
Mohon tunggu...

Lihat Konten Artificial intelligence Selengkapnya
Lihat Artificial intelligence Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun