Jawabannya rumit, tapi mari kita sederhanakan. Salah satu kunci keberhasilan model bahasa seperti ChatGPT adalah kemampuannya untuk membuat percakapan yang terasa alami dan menyenangkan.
Untuk itu, para pengembang melatih model agar merespons dengan tone yang ramah, suportif, dan tidak konfrontatif. Masalahnya, dalam dunia nyata, diskusi yang sehat tidak selalu nyaman. Terkadang kita perlu dibantah, ditegur, bahkan dikritik, agar bisa berkembang.
Menurut penelitian yang diterbitkan oleh Stanford Human-Centered AI Institute (2023), sebanyak 68% pengguna LLM mengalami "confirmation bias" saat menggunakan model ini. Artinya, mereka cenderung mencari, mengamini, dan memperkuat opini mereka sendiri melalui percakapan dengan AI. Ini diperparah ketika AI tidak memberikan friction atau tantangan terhadap ide-ide tersebut.
Dalam sistem yang terlalu "ramah", kita sebagai pengguna bisa kehilangan refleksi kritis. Kita merasa didengar, dipahami, bahkan "disetujui", tanpa menyadari bahwa kita sedang berbicara dengan cermin digital, bukan partner intelektual.
Kasus Terkini: Update Prompt yang Menjadi Sorotan
Pada minggu terakhir bulan Juli 2025, OpenAI merilis update sistem prompt secara platform-wide. Artinya, seluruh pengguna ChatGPT mengalami perubahan cara model merespons, meski secara teknis modelnya tetap sama (misalnya GPT-4-turbo).
Beberapa pengguna menyadari bahwa ChatGPT menjadi lebih mudah "mengikuti arus". Ia jadi lebih sering setuju, bahkan terhadap pertanyaan atau pendapat yang sebelumnya akan dibantah secara sopan. Sebuah eksperimen sederhana menunjukkan bahwa model kini lebih cepat berkata "Betul" dibanding "Mari kita telaah bersama."
Perubahan ini menimbulkan kekhawatiran serius di kalangan peneliti dan jurnalis teknologi. Mereka mempertanyakan apakah OpenAI, dalam upayanya membuat model lebih menyenangkan dan tidak memicu konflik, telah mengorbankan fungsi kritisnya sebagai "partner berpikir".
Dampaknya Bagi Pengguna Sehari-hari
Sebagian orang mungkin menganggap ini bukan masalah besar. "Toh cuma ngobrol sama robot," kata mereka. Tapi mari kita jujur: hari ini, banyak dari kita menggunakan ChatGPT bukan cuma untuk hiburan.
Kita mengandalkannya untuk menulis artikel, menganalisis data, mencari opini alternatif, merumuskan strategi bisnis, membantu pekerjaan sekolah atau kuliah.
Kalau model yang kita gunakan selalu setuju dan memuji ide kita, maka kita sedang masuk ke echo chamber buatan. Sama seperti media sosial yang memperkuat bias kita lewat algoritma, LLM juga bisa mempersempit cara pandang kita jika tidak digunakan dengan hati-hati.
Bayangkan kamu seorang guru yang bertanya, "Apakah kurikulum saya sudah cukup kritis?" dan model menjawab, "Ya, sudah sangat bagus!" tanpa pertimbangan objektif. Atau kamu seorang penulis opini yang ingin tahu apakah argumenmu kuat, tapi malah dijawab, "Ya, ini sudah sangat logis dan menarik!" padahal ada celah besar di sana.