Setiap kalimat yang keluar dari AI adalah hasil dari pemrosesan distribusi probabilistik. Kata "patah hati" akan disambung dengan "karena kehilangan" bukan karena AI memahami patah hati, melainkan karena secara statistik, miliaran teks manusia sering menghubungkan keduanya. Sama seperti Google Maps yang memberi rute tercepat tanpa pernah tahu ke mana kita benar-benar ingin pergi, AI menyusun rute kalimat paling mungkin tanpa pernah tahu ke mana makna harus tiba.
Geoffrey Hinton, yang dijuluki "bapak deep learning", pernah berkata dalam wawancara bersama MIT Technology Review bahwa sistem pembelajaran mesin sebenarnya adalah "sistem yang mengoptimalkan fungsi kesalahan berdasarkan data yang diamati," bukan sistem yang 'mengerti' data itu. Dengan kata lain, AI adalah algoritma pengurang kesalahan, bukan pencari kebenaran. Maka ia bisa tampak bijak tanpa pernah bijaksana, tampak benar tanpa pernah sadar bahwa ia benar---karena 'kesadaran' bukan bagian dari mekanismenya.
Model besar bahasa (Large Language Models) bekerja seperti musisi yang menghafal jutaan lagu, lalu menciptakan lagu baru bukan berdasarkan emosi, tetapi berdasarkan urutan statistik akor yang paling mungkin disukai. Itulah mengapa AI tampak begitu lancar saat mengulang gaya Shakespeare atau menyusun ulang gaya Derrida. Tapi saat ia diminta untuk memahami penderitaan Hamlet, atau menggugat dekonstruksi Derrida dari dalam tubuh filsafatnya sendiri, kita mendapati batasnya. Ia hanya bisa mengulang, merangkai, dan membentuk bayangan dari pemikiran, bukan pemikiran itu sendiri.
Di sinilah letak lingkaran kosong itu. AI memulai dan mengakhiri pada ranah sintaksis, tanpa pernah menembus ranah semantik atau eksistensial. Ia bisa mengeluarkan kalimat seperti: "Hidup adalah penderitaan, seperti kata Buddha", namun ia tidak tahu apa itu hidup, tidak pernah menderita, dan tidak pernah menjadi Buddha. Seperti ular yang menggigit ekornya sendiri, AI terus bergerak dalam siklus respon atas data yang dihasilkan manusia, yang pada gilirannya akan digunakan kembali oleh AI lainnya. Sebuah sistem yang tidak pernah keluar dari lingkarannya sendiri.
Dari perspektif sosioteknologis, ini bukan sekadar masalah teknis. Ketika masyarakat mulai memperlakukan keluaran AI sebagai pernyataan bernilai, ketika pidato politisi, puisi siswa, bahkan tesis mahasiswa ditulis oleh sistem reaktif ini, kita tengah membangun kebudayaan yang digerakkan oleh entitas tanpa intensi. Maka, kita harus bertanya: jika seluruh bahasa berasal dari entitas tanpa kehendak, ke mana perginya makna?
Kita hidup di zaman ketika respons bukan lagi cerminan kesadaran, melainkan hasil dari kalkulasi statistik. Dalam konteks ini, AI tidak sedang mengucapkan kebenaran atau kebohongan---ia hanya sedang menjalankan perintah "berikan kata berikutnya yang paling mungkin." Dan dalam dunia di mana "kemungkinan" menggantikan "kebenaran," barangkali kita bukan sedang menciptakan kecerdasan, melainkan sedang terjebak dalam labirin bayangan yang kita pikir bisa bicara---padahal ia hanya memantul.
B. Penjelasan teknis: Model prediksi berdasarkan probabilitas distribusi data
Untuk memahami mengapa AI tak memiliki intensi, kita harus menelisik cara kerjanya yang paling mendasar: prediksi berbasis probabilitas dari distribusi data. Ini bukan sekadar jargon teknis, tetapi merupakan landasan epistemologis dari seluruh sistem pemrosesan bahasa alami berbasis AI saat ini.
Dalam Large Language Models (LLMs) seperti GPT, Claude, atau Gemini, bahasa bukan dipahami, melainkan diestimasi. Model ini dilatih dengan unsupervised learning menggunakan miliaran token dari teks manusia. Proses pelatihannya bertumpu pada satu prinsip utama: prediksi token berikutnya berdasarkan konteks token-token sebelumnya. Dalam istilah sederhana, jika diberikan "Hujan turun di", model akan memilih "pagi" karena kata tersebut secara statistik lebih sering muncul dalam konteks tersebut di dataset pelatihannya.
Secara matematis, LLM beroperasi dengan menghitung fungsi distribusi probabilitas kondisi, biasanya dalam bentuk
P(wtw1,w2,...,wt1)P(w_t \mid w_{1}, w_{2}, ..., w_{t-1})