Pernahkah kamu berpikir bahwa di balik ChatGPT, DALL-E, atau mobil otonom yang bisa mengemudi sendiri, ada sesuatu yang sama sederhana namun mendasar: matematika? Dari rumus logika Boole di abad ke-19, teori probabilitas, hingga kalkulus dan aljabar linear, matematika telah menjadi "mesin tak terlihat" yang melahirkan Artificial Intelligence (AI) dan Generative AI (GenAI). Artikel ini akan mengajak kamu menelusuri bagaimana perjalanan panjang AI --- dari sekadar operasi penjumlahan di komputer awal, melewati masa "musim dingin AI", hingga kini mampu menciptakan teks, gambar, dan musik baru. Semua ini adalah kisah tentang bagaimana rumus-rumus di papan tulis berubah menjadi revolusi teknologi yang mengubah dunia.
***Latar Belakang
Artificial Intelligence (AI), atau dalam bahasa Indonesia dikenal sebagai Kecerdasan Buatan, adalah cabang ilmu komputer yang bertujuan untuk mengembangkan sistem dan mesin yang mampu melakukan tugas yang biasanya memerlukan kecerdasan manusia. AI melibatkan penggunaan algoritma dan model matematika untuk memungkinkan komputer dan sistem lainnya untuk belajar dari data, mengenali pola, dan membuat keputusan yang cerdas. Dalam konteks AI, terdapat beberapa konsep penting seperti machine learning (pembelajaran mesin), neural networks (jaringan saraf tiruan), natural language processing (pemrosesan bahasa alami), dan banyak lagi. Pengembangan AI telah memberikan dampak besar dalam berbagai bidang seperti pengenalan suara, pengenalan wajah, mobil otonom, pengobatan, dan masih banyak lagi (Eriana, 2023).Â
Menurut Andreas Kaplan dan Michael Haenlein, kecerdasan buatan adalah kemampuan suatu sistem untuk menafsirkan atau mengartikan data yang diterima dengan benar, kemudian untuk belajar dari data tersebut, serta untuk menggunakan pembelajaran tersebut dalam mencapai tujuan atau tugas tertentu melalui adaptasi yang fleksibel. Sistem yang dimaksud disini umumnya adalah perangkat lunak atau algoritma yang nantinya akan dimasukkan kedalam suatu mesin atau umumnya komputer. Setelah dimasukkan kedalam mesin barulah Artificial Intelligence ini bisa melakukan pekerjaan yang diinginkan.
Algoritma adalah sekumpulan langkah rinci yang ditujukan untuk komputer dalam menyelesaikan suatu masalah. Langkah-langkah yang dimaksud adalah agar bisa dituangkan ke dalam program, sehingga biasa dieksekusi oleh komputer. Algoritma adalah metode efektif yang diekspresikan sebagai rangkaian terbatas. Algoritma juga merupakan kumpulan perintah untuk menyelesaikan suatu masalah dimana masalah diselesaikan dituntut secara sistematis, terstruktur dan logis. Dengan algoritma, kita dapat mengatasi masalah dari yang sederhana sampai yang kompleks sekalipun (Chairunnisa dkk., 2021)
Internet telah menjadi bagian dari kehidupan masyarakat modern. Dalam aktifitas baik itu dunia kerja, dunia pendidikan, milter, kesehatan, maupun dalam kehidupan sosial masyarakat sehari-hari, internet telah ada dan menjadi bagian didalamnya. Bahkan sebagian sektor publik maupun swasta ataupun privat tidak dapat dipisahkan dari teknologi ini.Â
Perkembang internet juga mempengaruhi media massa. Hal ini dapat dilihat dari banyaknya bermunculan media online seperti AI dan Gen AI. Dengan berkembangnya internet juga memberikan pengaruh terhadap penggunaan media bagi masyarakat. Dengan biaya yang murah dan akses yang mudah, siapa saja dapat membuat dan mengembangkan medianya sendiri (Nuriadin, 2021)
Perkembangan teknologi dari masa ke masa selalu melibatkan matematika sebagai fondasi utamanya. Mulai dari penemuan mesin hitung, logika Boole, hingga komputer modern, matematika selalu menjadi bahasa yang memungkinkan inovasi terjadi. Kemunculan Artificial Intelligence (AI) dan Generative AI (GenAI) merupakan salah satu lompatan besar yang tidak lepas dari peran matematika, khususnya dalam bidang logika, aljabar linear, dan statistik. Kecerdasan Buatan (AI) telah mengalami beberapa awal dan akhir yang salah selama bertahun-tahun, sebagian karena orang tidak benar-benar memahami apa itu AI, atau bahkan apa yang harus dicapai. Sebagian besar masalahnya adalah bahwa film, acara televisi, dan buku semuanya bersekongkol untuk memberikan harapan palsu tentang apa yang akan dicapai oleh AI. Selain itu, kecenderungan manusia untuk melakukan antropomorfisasi (memberikan karakteristik manusia pada) teknologi membuat AI seolah-olah harus melakukan lebih dari yang dapat diharapkan untuk dicapai (Santoso, 2023).
Teknologi Artificial Intelligence (AI) dalam beberapa tahun terakhir telah membawa perubahan signifikan di berbagai bidang, termasuk pendidikan. Kemampuan AI untuk menganalisis data, memproses informasi, dan menghasilkan konten secara otomatis telah membuka peluang baru dalam meningkatkan kualitas pembelajaran, menyediakan materi ajar yang lebih interaktif, serta memperluas akses informasi berbasis komputerisasi (Diantama, 2023; Gagaramusu et al., 2025).
***Sejarah AI
Siapa sangka perjalanan kecerdasan buatan (AI) yang kita kenal hari ini dimulai dari sesuatu yang sesederhana logika simbolik? Perjalanan panjang AI sebenarnya adalah perjalanan bagaimana manusia menerjemahkan matematika ke dalam bahasa mesin. Mari kita telusuri bagaimana AI berkembang dari tahun ke tahun, serta bagaimana matematika selalu menjadi denyut nadi di balik kemajuannya.
Sejarah Artificial Intelligence dimulai pada WW2 (World War 2) atau Perang Dunia ke-2. Seorang ilmuwan komputer asal Inggris yang bernama Alan Turing berusaha memecahkan kode Enigma yang digunakan oleh pasukan Jerman untuk mengirim pesan rahasia. Dalam usaha tersebut, Alan Turing bersama timnya berhasil menciptakan "Mesin Bombe" yang digunakan untuk mendekripsi pesan yang dienkripsi menggunakan kode tersebut. Mesin inilah yang menjadi dasar bagi Machine Learning atau kemampuan mesin untuk belajar yang merupakan Artificial Intelligence itu sendiri. Menurutnya, nantinya komputer akan mampu melakukan hal dimana manusia tidak lagi mampu membedakan apakah itu mesin atau manusia.Â
Tahun 1951Â
Sebuah mesin bernama "Ferranti Mark 1" berhasil menggunakan algoritma untuk menguasai permainan checkers. Tidak lama setelahnya, John McCarthy mengembangkan bahasa pemograman LISP yang merupakan salah satu hal krusial dalam Artificial Intelligence. John McCarthy jugalah yang menyusun Konferensi Darthmouth yang melahirkan istilah Artificial Intelligence itu sendiri. Oleh karena itu, John McCarthy dikenal sebagai ayah dari Artificial Intelligence. Artificial Intelligence terus berkembang dengan pesat hingga pada akhir 1960-an, para ilmuwan komputer mengembangkan Machine Vision Learning serta menerapkan Artificial Intelligence pada robot. Sayangnya mulai dari pertengahan 1970- an hingga 1990-an, terjadi krisis sehingga masa tersebut dikenal sebagai Artificial Intelligence Winter atau musim dingin bagi Artificial Intelligence. Hal ini disebabkan oleh sulitnya menerapkan Artificial Intelligence lanjutan pada komputer saat itu karena memang spesifikasi dari komputerkomputer saat itu masih belum memadai. Pada akhir abad ke-20, barulah perusahaan-perusahaan asal Amerika kembali tertarik pada Artificial Intelligence. Para ahli percaya bahwa dengan Artificial Intelligence komputer akan mampu melakukan konversasi, menerjemahkan bahasa, menerjemahakan makna gambar dan sebagainya layaknya manusia. Akhirnya pada tahun 1977, komputer buatan IBM menjadi komputer pertama yang berhasilkan juara dunia Garry Kasparov dalam pertandingan catur. Artificial Intelligence-pun kembali melanjutkan perkembangan pesatnya, salah satu alasan utamanya adalah spesifikasi komputer saat ini yang bahkan telah mampu melakukan simulasi Big Bang (Chairunnisa dkk., 2021)
1. Dimulai dengan Logika Simbolik di Darthmouth
1956 -- Lahirnya AI di Dartmouth
Musim panas tahun 1956 menandai momen penting dalam sejarah. Di Dartmouth College, istilah Artificial Intelligence untuk pertama kalinya digunakan. Komputer saat itu baru bisa melakukan operasi matematika dasar seperti penjumlahan dan perbandingan sederhana. Namun, para ilmuwan yakin bahwa suatu hari mesin bisa berpikir layaknya manusia.
Di tahap ini, matematika berperan sebagai fondasi utama. Logika simbolik dan teori himpunan menjadi alat untuk membuat algoritma awal, sehingga komputer dapat melakukan penalaran logis, walau masih terbatas.
1970-an -- Munculnya Sistem Pakar
Memasuki 1970-an, para peneliti mengembangkan sistem pakar, sebuah cara agar komputer bisa meniru cara berpikir seorang ahli dengan aturan sederhana seperti "if...then". Ini adalah langkah awal membuat AI menjadi praktis tanpa perlu komputasi besar.
Peran matematika di sini semakin jelas: aljabar himpunan dan logika proposisional digunakan untuk membangun basis aturan dan menentukan hubungan antar data.
1980-an -- Kejayaan Sistem Pakar
Dekade ini adalah masa keemasan sistem pakar. Banyak perusahaan menggunakannya untuk membantu pengambilan keputusan. Bahasa pemrograman khusus seperti LISP dan Prolog menjadi populer.
Matematika membantu dengan struktur data dan teori graf untuk mengatur basis pengetahuan, serta menggunakan logika formal agar komputer bisa melakukan penalaran otomatis.
1990-an -- Sistem Pakar Jadi Bagian Kehidupan
Pada 1990-an, istilah "sistem pakar" mulai menghilang dari sorotan publik. Namun, teknologinya justru melekat di banyak aplikasi sehari-hari, seperti pemeriksa ejaan dan tata bahasa di Microsoft Word.
Matematika ikut berkembang di balik layar. Algoritma optimasi digunakan untuk mempercepat proses pengambilan keputusan dan meningkatkan efisiensi komputasi.
2000-an -- Kebangkitan AI Modern
Memasuki abad ke-21, perkembangan perangkat keras seperti CPU dan GPU membuka jalan bagi machine learning dan neural networks. AI mulai belajar dari data, bukan hanya menjalankan aturan yang sudah ditentukan.
Matematika hadir melalui kalkulus untuk optimasi (contohnya gradient descent) dan aljabar linear yang menjadi dasar perhitungan pada jaringan saraf tiruan.
Era Sekarang -- AI dan Generative AI
Kini kita berada di era AI modern, di mana AI tidak hanya menganalisis data, tetapi juga menciptakan sesuatu yang baru. Kita mengenal Generative AI yang mampu membuat teks, gambar, musik, bahkan video. Model seperti LLM (Large Language Model) dan GAN (Generative Adversarial Network) dilatih menggunakan dataset raksasa melalui komputasi awan (cloud computing).
Di balik layar, matematika menjadi penggerak utama: probabilitas, statistik, dan teori informasi membantu AI memprediksi keluaran terbaik, sementara optimasi multivariat membuat model semakin akurat dari waktu ke waktu.
2. Musim Dingin AIÂ
Musim dingin AI adalah periode menurunnya pendanaan dan perhatian terhadap AI akibat hype yang berlebihan dan hasil yang tidak sesuai ekspektasi. Siklus ini sudah terjadi beberapa kali sepanjang sejarah, memperlambat kemajuan teknologi.
Kini AI kembali mengalami kebangkitan berkat machine learning, yaitu metode yang memungkinkan komputer belajar dari data tanpa diprogram manual. Cara ini mirip mengajari bayi melalui contoh. Namun, ada risiko komputer belajar dari data yang salah sehingga hasilnya keliru.
Pendekatan paling berhasil saat ini adalah deep learning yang meniru cara kerja otak manusia dengan jaringan saraf tiruan. Keberhasilannya ditopang oleh komputer yang semakin kuat, algoritme yang lebih efisien, data besar hasil digitalisasi, dan investasi besar dari perusahaan seperti Google, Facebook, dan Amazon.
*Peran Matematika:
Probabilitas & Statistik membantu model machine learning mengenali pola, memperkirakan kemungkinan, dan meminimalkan kesalahan.
Aljabar Linear digunakan dalam representasi data sebagai vektor/matriks serta perhitungan bobot pada jaringan saraf.
Kalkulus (turunan & gradien) dipakai dalam optimasi backpropagation untuk melatih model agar semakin akurat.
Teori Informasi mengukur seberapa "baru" dan "bermakna" hasil pembelajaran sehingga model menghasilkan prediksi yang lebih baik.
Meskipun "musim dingin AI" dianggap berakhir, para ahli memperingatkan bahwa siklus kritik bisa terulang jika ekspektasi publik terlalu tinggi. AI modern memang mengagumkan, tetapi masih terbatas pada tugas tertentu.
3. Mempertimbangkan Penggunaan AI
AI kini digunakan di berbagai aplikasi tanpa selalu terlihat oleh penggunanya. Termostat pintar memanfaatkan model matematika untuk memprediksi pola kebiasaan pengguna dan mengatur suhu secara otomatis. Sistem input suara memakai algoritma statistik dan pemodelan probabilistik untuk mempelajari cara bicara pengguna sehingga interaksi menjadi lebih akurat. AI juga diterapkan di mobil (seperti sistem navigasi dan bantuan pengemudi) serta di tempat kerja, semuanya mengandalkan komputasi matematis seperti analisis data, machine learning, dan optimasi. Secara keseluruhan, jutaan penggunaan AI bekerja di latar belakang dengan aman, mempermudah aktivitas sehari-hari, dan menunjukkan peran penting matematika dalam memahami pola dan membuat keputusan.
4. Menghubungkan AI dengan Komputer Dasar
Untuk membuat AI bekerja, kita membutuhkan tiga komponen utama: sistem komputasi, aplikasi, dan basis pengetahuan. Sistem komputasi bisa berupa apa saja, mulai dari ponsel pintar hingga komputer server berkapasitas besar, tergantung seberapa berat pekerjaan yang harus dilakukan AI. Aplikasi pun beragam, ada yang dipasang langsung di perangkat, ada juga yang dijalankan melalui server atau web --- misalnya saat kita menggunakan rekomendasi produk di Amazon.
Basis pengetahuan berfungsi sebagai "otak" bagi AI, menyimpan data yang diperlukan untuk membuat keputusan. Semakin besar dan kompleks datanya, semakin kaya informasi yang dapat dipelajari AI. Namun, pengolahannya juga menjadi lebih berat. Di sinilah muncul dilema: menyimpan data secara lokal memang lebih cepat, tetapi informasinya terbatas; sementara menyimpan data di server online memberi hasil yang lebih detail, namun membuat akses sedikit lambat karena adanya jeda jaringan.
Di balik layar, matematika memegang peran besar dalam menjaga semua proses ini tetap efisien. Konsep kompleksitas algoritmik membantu memilih cara komputasi paling hemat waktu, teori probabilitas dan statistik membantu AI membaca pola dari data, dan teknik optimasi matematika digunakan untuk mempercepat akses data sekaligus mengurangi latensi jaringan. Dengan kata lain, matematika memastikan AI bukan hanya pintar, tetapi juga bekerja dengan cepat dan tepat.
***Perbedaan AI dan Generative AI
Berikut adalah perbedaan utama antara AI (Artificial Intelligence) dan Generative AI (GenAI):Â
AI (Artificial Intelligence)Â
Merupakan teknologi yang memungkinkan mesin meniru kecerdasan manusia untuk menganalisis data, membuat keputusan, dan menyelesaikan tugas. AI M e n g a n a l i s i s , mengklasifikasikan, mengoptimalkan, dan mengambil keputusan berdasarkan data. Contoh Teknologi : Machine Learning (ML), Deep Learning, Computer Vision, Natural Language Processing (NLP). Output yang dihasilkan : Jawaban berbasis aturan, klasifikasi data, deteksi pola, rekomendasi, prediksi dan Jawaban berbasis aturan, klasifikasi data, deteksi pola, rekomendasi, prediksi. Contoh Penggunaan : Google Search, asisten virtual (Siri, Google Assistant), sistem deteksi penipuan, analisis data di bisnis. Cara kerjanya : Menganalisis data yang ada untuk memberikan jawaban atau keputusan berbasis pola.Â
Generative AI (GenAI)Â
Merupakan subset dari AI yang dapat membuat konten baru (teks, gambar, suara, video) berdasarkan pola dari data yang telah dipelajarinya. GenAI M e n g h a s i l k a n teks, gambar, suara, kode, atau video yang menyerupai buatan manusia. Contoh Teknologi : Large Language Models (LLM) seperti ChatGPT, DALL-E, MidJourney, dan Sora. Â Output yang dihasilkan : Konten baru seperti artikel, puisi, gambar, musik, video, dan kode pemrograman dan Konten baru seperti artikel, puisi, gambar, musik, video, dan kode pemrograman. Contoh penggunaan : ChatGPT untuk teks, DALL-E untuk gambar, ElevenLabs untuk suara, Runway untuk video. ara Kerjanya : Memproses data besar, memahami pola, dan m e n c i p t a k a n konten baru berdasarkan pola tersebut.Â
Jadi, Semua GenAI adalah AI, tetapi tidak semua AI adalah GenAI. AI dapat digunakan untuk analisis dan pengambilan keputusan, sementara GenAI berfokus pada penciptaan konten yang menyerupai hasil buatan manusia.Â