Â
Para ilmuwan dari Universitas Cambridge dan Hebrew University melakukan eksperimen unik dengan ChatGPT. Mereka menanyakan sebuah persoalan Matematika kuno dari zaman Yunani yang dikenal sebagai doubling the square atau menggandakan luas bujur sangkar.
Dalam dialog yang dicatat Plato sekitar 385 SM, Socrates pernah menguji seorang murid untuk melipatgandakan luas sebuah kuadrat. Murid itu keliru karena hanya menggandakan sisi-sisinya, padahal solusi yang benar adalah membentuk sisi baru dengan panjang sama seperti diagonal kuadrat semula. Persoalan ini sederhana bagi geometri modern, tetapi memuat nilai filosofis tentang proses berpikir.
Ketika para peneliti memberikan soal yang sama kepada ChatGPT, mereka ingin mengetahui apakah model bahasa besar tersebut sekadar menyalin informasi dari data pelatihan atau benar-benar bisa melakukan penalaran baru. Sebab, persoalan matematis ini jarang muncul dalam bentuk yang eksplisit di data teks modern. Jika ChatGPT mampu menyusun solusi, hal itu mengindikasikan adanya proses "reasoning" yang menyerupai manusia. Hasilnya cukup mengejutkan: ChatGPT tidak hanya menghasilkan jawaban yang mendekati benar, tetapi juga terkadang memberikan argumen dengan pola pikir yang seolah-olah menyusun hipotesis sendiri.
Dalam beberapa percobaan, ChatGPT bahkan menolak menjawab dengan alasan bahwa tidak ada solusi geometris, terutama ketika variasi soal diberikan pada bentuk lain seperti persegi panjang. Padahal, solusi matematis untuk kasus itu memang sudah lama ditemukan. Sikap AI ini membuat peneliti berkesimpulan bahwa jawaban yang muncul tidak selalu konsisten, tetapi menunjukkan adanya improvisasi berbasis pola yang sudah dikenal. Hal ini menyerupai proses belajar manusia ketika mencoba menghubungkan pengetahuan lama dengan situasi baru.
Para peneliti menghubungkan fenomena ini dengan konsep psikologi pendidikan yang dikenal sebagai zone of proximal development atau ZPD. Dalam teori ini, terdapat jarak antara kemampuan aktual seseorang dan kemampuan potensial yang bisa dicapai dengan bantuan atau bimbingan. ChatGPT tampaknya juga beroperasi di wilayah seperti itu: ia bisa "melompat" ke pengetahuan baru jika diberikan konteks atau dorongan melalui prompt tertentu. Misalnya, jika prompt disusun dalam bentuk kolaboratif, seperti "mari kita bahas bersama langkah-langkahnya," ChatGPT cenderung memberikan uraian yang lebih masuk akal dibanding jika hanya diminta jawaban langsung.
Namun, tetap ada keterbatasan besar. Model bahasa besar seperti ChatGPT beroperasi sebagai "kotak hitam." Meskipun menghasilkan argumen yang terlihat logis, kita tidak bisa menelusuri mekanisme internal bagaimana jaringan sarafnya memutuskan jawaban tertentu. Kondisi ini bisa berbahaya jika pengguna, terutama pelajar, menerima semua jawaban AI tanpa sikap kritis. Para peneliti menegaskan bahwa penting bagi siswa untuk memverifikasi setiap pembuktian matematis yang diberikan oleh AI, alih-alih sekadar menganggapnya kebenaran mutlak.
Dari sisi pendidikan, eksperimen ini justru membuka peluang. ChatGPT dan sistem AI lain dapat dimanfaatkan sebagai alat bantu belajar yang mendorong proses berpikir kreatif. Dengan strategi prompt engineering yang tepat, guru dapat mengarahkan siswa untuk berdiskusi bersama AI, bukan hanya menerima jawaban instan. Bayangkan jika model bahasa besar diintegrasikan dengan perangkat lunak geometri dinamis, maka pengalaman belajar matematika bisa lebih interaktif dan mendalam.
Meski begitu, kita tidak boleh melupakan kelemahan AI. ChatGPT masih sering menghasilkan kesalahan logika atau pernyataan keliru. Hal ini memperlihatkan bahwa model ini tidak benar-benar "mengerti" matematika, tetapi mengandalkan pola statistik dari teks yang pernah dipelajarinya. Oleh karena itu, literasi AI menjadi penting. Siswa, guru, bahkan masyarakat umum perlu dibekali kemampuan untuk menilai argumen dari AI, menguji ulang, dan tidak pasif dalam menerima informasi.
Dari sudut pandang teknologi, eksperimen ini menunjukkan bahwa batas antara reproduksi pola dan penalaran baru pada AI mulai kabur. Apakah ChatGPT benar-benar berpikir?Â