Salah satu lompatan terbesar dalam sejarah kecerdasan buatan adalah kemampuan mesin untuk memahami dan menghasilkan bahasa manusia secara alami. Teknologi ini dikenal sebagai Natural Language Processing (NLP).
Namun sejak munculnya model seperti GPT (Generative Pre-trained Transformer), dunia menyaksikan perubahan besar: dari sekadar chatbot biasa menjadi AI yang bisa menulis, berdiskusi, bahkan menciptakan.
Dari NLP Tradisional ke Transformer
Sebelum GPT, pendekatan NLP bersifat modular dan terbatas:
-
Ada modul parsing (struktur kalimat),
Modul pemahaman makna (semantik),
Modul jawaban atau respons.
Namun semuanya terpisah dan lemah dalam konteks jangka panjang.
Tahun 2017, Google memperkenalkan arsitektur Transformer---model yang mampu membaca dan memproses konteks dalam kalimat panjang secara simultan. Inilah fondasi utama GPT.
Kemunculan GPT dan LLM
OpenAI merilis GPT (versi 1) pada 2018. Model ini dilatih dengan jumlah data masif dan parameter miliaran, menjadikannya mampu memahami bahasa seperti manusia.