Pada tahun 2024, dunia teknologi kembali menyorot dua nama besar: Rich Sutton dan Andrew Barto, yang dianugerahi Turing Award---penghargaan paling bergengsi dalam dunia komputasi. Dua pakar ini dikenal luas berkat kontribusi mereka dalam pengembangan kecerdasan buatan (AI), terutama dalam ranah pembelajaran penguatan (reinforcement learning). Namun, bukan hanya penghargaan itu yang mengguncang industri. Sebuah esai klasik karya Sutton berjudul The Bitter Lesson kembali mencuat dan menjadi perbincangan hangat.
Esai yang ditulis Sutton pada tahun 2019 menyampaikan satu pesan penting: AI yang dikembangkan melalui proses komputasi intensif---bukan dari pemahaman manusia---ternyata justru lebih unggul dan efektif. Pernyataan ini mengundang banyak diskusi, terlebih karena terbukti benar dalam sejarah panjang pengembangan AI.
Lalu, apa yang membuat pernyataan itu penting hari ini?
Jawabannya terletak pada bagaimana teknologi AI berkembang. Dalam 20 tahun terakhir, dunia menyaksikan lonjakan besar dalam penggunaan model bahasa besar (Large Language Models atau LLM) seperti ChatGPT, DeepSeek, dan sejenisnya. LLM ini dibangun bukan dari "pemahaman" manusia, melainkan dari triliunan kata yang dikumpulkan dari internet dan diproses oleh ribuan komputer. Tujuannya? Untuk memprediksi kata berikutnya secara probabilistik. Teknologi ini berakar pada penelitian Claude Shannon di tahun 1948 dan berkembang melalui berbagai tahap, dari speech recognition pada 1980-an hingga transformers pada 2017---yang kini jadi tulang punggung LLM modern.
Namun, pertanyaan besarnya bukan soal bagaimana LLM bekerja, tetapi: seberapa aman dan efektifkah teknologi ini untuk kehidupan kita sehari-hari?
Teknologi seperti Google Translate, yang dahulu hanya mendukung tiga bahasa di tahun 2006, kini mendukung 249 bahasa. Tapi, meski tampak canggih, kualitas penerjemahan masih jauh dari sempurna. Banyak kasus menunjukkan kesalahan fatal dalam penerjemahan, mulai dari kesalahan medis hingga pernyataan hukum yang membahayakan.
Tak berhenti di situ, LLM pun menghadapi risiko yang sama---bahkan lebih besar. Model seperti ChatGPT bisa sangat membantu dalam tugas-tugas ringan, tetapi terbukti tidak andal untuk konteks serius. Contoh paling mencolok adalah pengacara yang menggunakan ChatGPT untuk menyusun pembelaan hukum, tetapi ChatGPT justru mensitasi kasus-kasus fiktif.
Dengan kata lain, LLM bisa sangat pintar sekaligus sangat berbahaya---jika digunakan tanpa kehati-hatian.
Kini, dengan munculnya model baru seperti DeepSeek dari Tiongkok, yang menawarkan performa setara GPT dengan harga lebih rendah, kompetisi pun semakin ketat. LLM telah menjadi komoditas. Teknologi ini tidak hanya mempengaruhi sektor teknologi, tetapi juga mengancam lapangan kerja, khususnya di bidang penerjemahan, konten kreatif, dan bahkan hukum.
Yang paling mengkhawatirkan, menurut para peneliti, adalah kecemasan otomatisasi (automation anxiety)---rasa tertekan, terancam, dan kehilangan arah yang dirasakan banyak pekerja karena takut digantikan oleh mesin.
Bagaimana kita menyikapi semua ini?