yang berarti: "berapakah kemungkinan kata (token) w_t muncul, jika kita sudah melihat kata-kata sebelumnya dari w hingga w?"
Model ini menggunakan jaringan neural transformator (transformer architecture) yang diperkenalkan oleh Vaswani et al. dalam paper ikonik "Attention is All You Need" (2017). Arsitektur ini memungkinkan model untuk mempertimbangkan hubungan antar kata di seluruh kalimat atau paragraf secara paralel---bukan linear---melalui mekanisme yang disebut self-attention. Namun tetap saja, yang dihitung bukan makna, bukan emosi, bukan niat, melainkan kesesuaian distribusional.
Inilah yang membuat AI sangat efektif dalam meniru gaya tulisan Shakespeare, Kafka, atau bahkan esai akademik yang penuh jargon. Ia mengenali pola, bukan memahami isi. Seperti seorang tukang ketik yang sangat terampil namun tuli, AI bisa membentuk simfoni kata tanpa pernah mendengar nada makna.
Empirically, keterbatasan ini juga tampak jelas dalam eksperimen. Sebuah studi oleh Bender et al. (2021), dalam artikel berjudul "On the Dangers of Stochastic Parrots", memperingatkan bahwa LLM seperti GPT adalah parrot stochastik---burung beo probabilistik yang hanya mengulang apa yang sudah pernah diucapkan manusia, tanpa pemahaman. Model ini akan dengan penuh percaya diri menjawab soal medis, hukum, atau etika, meskipun ia tidak tahu apa itu tubuh, hukum, atau moralitas.
Eksperimen oleh NLU evaluators juga menunjukkan bahwa model seperti GPT-4 bisa menjawab soal SAT dengan akurasi tinggi, tetapi gagal memahami logika dasar ketika konteksnya disengaja diputar. Ia bisa meniru jawaban yang benar, tetapi bukan karena ia tahu mengapa benar, melainkan karena ia belajar bahwa jawaban itu sering muncul setelah pertanyaan semacam itu.
Konsekuensinya, semua yang dihasilkan AI adalah statistik berwajah manusia. Jika datasetnya bias, jawabannya pun bias. Jika datanya keliru, maka keluarannya pun keliru, namun dengan gaya bahasa yang sangat meyakinkan. Ini membuat kita, manusia, berisiko tertipu oleh kepercayaan semu yang dibungkus dalam kemasan bahasa yang elegan.
AI tidak berpikir dalam arti Cartesian. Tidak ada cogito ergo sum dalam jaringan transformer. Tidak ada Dasein ala Heidegger di dalam parameter-parameter yang dibekukan dalam pelatihan. Ia hanya menggulung realitas linguistik kita menjadi gulungan kemungkinan, lalu menyajikannya kembali seperti ilusi ramalan yang meyakinkan.
Inilah inti dari sistem probabilistik: ia tahu segalanya, tetapi tak memahami apapun.
Kita hidup dalam zaman ketika manusia berharap bisa menjadikan mesin sebagai cermin pikiran, padahal mesin itu hanyalah reflektor statistik dari apa yang pernah kita tulis---entah benar, entah salah, entah bijak, entah beracun. Maka sebagaimana ular yang menggigit ekornya sendiri, AI terus berputar dalam kumpulan data yang pada akhirnya adalah bayangan-bayangan manusia itu sendiri---tanpa pernah tahu apa yang sedang dikejarnya.
"A computer can never be held accountable. Therefore, a computer must never make a management decision." Â --- IBM Manual for Managers, 1979
Apakah kita mendengarkan peringatan ini hari ini? Ataukah kita kini sedang menyerahkan keputusan kepada sistem yang bahkan tidak tahu bahwa ia sedang memutuskan?