Kita mengeluh ketika ChatGPT memberi jawaban ngaco, tapi tetap kembali kepadanya karena malas berpikir. Di situlah paradoksnya: kita ingin mesin sempurna, tapi enggan berhenti menyuburkan kebodohan mereka.
Platform seperti Google Translate justru berkembang karena pengguna menyediakan data secara gratis---setiap kali kita mengklik "terjemahkan", setiap kali kita menerima hasil yang salah tanpa mengoreksinya. AI belajar dari kesalahan kita, tapi kita juga yang memperpanjang daur kesalahannya.Â
Di balik layar, ada manusia lain yang terjepit: penerjemah profesional. Mereka yang dulu dianggap "jagoan bahasa" kini terpaku pada layar, mengedit hasil terjemahan mesin yang kadang lebih mirip teka-teki.
Upahnya tergerus, tekanan deadline mencekik, sementara ancaman PHK mengintai. Peneliti menyebutnya automation anxiety: kecemasan bahwa mesin suatu hari akan mengambil alih peran manusia.
Ironisnya, justru merekalah yang menjadi "penjaga gawang" terakhir untuk memastikan terjemahan dokumen hukum atau medis tetap akurat. Seperti ibu yang membersihkan mainan berantakan setelah anak-anaknya selesai bermain.Â
Masa depan AI, jika kita belajar dari Google Translate, akan penuh dengan kontradiksi semacam ini. Di satu sisi, LLM akan semakin canggih, bisa menulis esai filosofis atau merancang logo perusahaan.
Di sisi lain, mereka akan tetap "bodoh" dalam hal-hal yang membutuhkan empati, konteks budaya, atau logika mendalam.
Seperti mesin yang bisa menulis puisi cinta tapi tak paham arti patah hati. Atau asisten virtual yang lancar berjanji "saya di sini untuk membantu", tapi bingung saat diminta memilih antara menyelamatkan kucing di pohon atau meeting dengan bos.Â
Lantas, apa yang bisa kita lakukan? Pertama, berhenti memperlakukan AI seperti dewa penjawab segala masalah. Google Translate berguna untuk menerjemahkan menu restoran, tapi jangan diandalkan untuk surat perjanjian bisnis.
ChatGPT bisa membantu merancang email, tapi jangan percayai referensi akademisnya tanpa verifikasi.
Kedua, kita perlu mendesak transparansi dalam pengembangan AI. Jika model ini dilatih dengan data bias, hasilnya pun akan bias.