Di dunia AI atau Akal-akalan Imitasi, konsistensi telah lama menjadi tantangan: mengulang satu pertanyaan kepada model AI seperti ChatGPT sering kali menghasilkan rentetan jawaban berbeda. Kondisi ini yang dideskripsikan sebagai nondeterminisme, memang telah diterima sebagai kenormalan  dalam inferensi model bahasa besar (LLM). Namun,  Thinking Machines Lab percaya bahwa hal ini bukanlah nasib tak terhindarkan.
Dengan dukungan pendanaan sebesar $2 miliar dan didukung oleh tim berisi mantan peneliti OpenAI, lab ini meluncurkan penelitian terbarunya yang berfokus pada bagaimana menciptakan AI dengan respons yang dapat direproduksi dengan konsisten
Peneliti Horace He, dalam blog post berjudul Defeating Nondeterminism in LLM Inference, unggahan posting perdana di blog riset baru Thinking Machines Lab bernama Connectionism --- menguraikan akar penyebab nondeterminisme. Ia menyoroti bahwa ketidakkonsistenan ini bersumber dari cara GPU kernel---serangkaian program kecil yang berjalan dalam chip Nvidia---digabungkan selama proses inferensi. Dengan pendekatan yang lebih teliti terhadap lapisan orkestrasi ini, He yakin bahwa tingkat determinisme dalam respons model bisa diperbaiki secara signifikan.
Mengapa ini penting? Mengutip dari techcrunch.com, bagi perusahaan dan peneliti, konsistensi jawaban berarti reliabilitas yang lebih tinggi. Sistem AI yang memberikan respons berubah-ubah menghadirkan tantangan serius dalam aplikasi kritis. Di sisi lain, dalam pelatihan reinforcement learning (RL), di mana model diberi penghargaan atas jawaban yang tepat, respons yang tidak konsisten membuat data yang digunakan menjadi "berisik" dan kualitas proses pelatihan menurun. Dengan memperkecil variabilitas, RL bisa berjalan lebih mulus dan efisien.
Thinking Machines Lab tak hanya berhenti pada penelitian. Menurut laporan sebelumnya dari The Information, mereka berencana menggunakan pendekatan RL untuk menyesuaikan (customize) model AI bagi kebutuhan bisnis. Mira Murati, mantan CTO OpenAI dan figur utama di balik Thinking Machines Lab, menyatakan bahwa produk pertama mereka akan diluncurkan dalam beberapa bulan mendatang dan akan berguna untuk peneliti dan startup yang mengembangkan model kustom. Tersirat bahwa temuan dari riset ini bisa saja menjadi bagian integral dari produk tersebut.
Langkah-langkah ini juga mencerminkan komitmen baru Thinking Machines Lab terhadap keterbukaan. Blog Connectionism akan menjadi platform publik untuk menerbitkan riset, kode, dan informasi teknis mereka --- upaya yang menurut mereka akan memperkaya budaya riset internal sekaligus memberikan manfaat bagi publik ilmiah. Ini berbeda dengan pendekatan OpenAI yang awalnya juga terbuka, tetapi kini cenderung lebih tertutup seiring pertumbuhannya.
Secara keseluruhan, penelitian awal Thinking Machines Lab menawarkan pandangan langka ke dalam salah satu startup AI paling tertutup di Silicon Valley. Fokus pada stabilitas dan ketepatan hasil menjanjikan potensi revolusi dalam cara model AI dikembangkan dan diterapkan. Tantangan sesungguhnya akan terlihat ketika mereka memadukan penelitian ini ke dalam produk nyata --- produk yang harus mampu membuktikan bahwa konsistensi bukan hanya teori, melainkan fondasi baru dalam kecerdasan buatan berulang dan handal, untuk penelitian maupun aplikasi komersial.
Follow Instagram @kompasianacom juga Tiktok @kompasiana biar nggak ketinggalan event seru komunitas dan tips dapat cuan dari Kompasiana. Baca juga cerita inspiratif langsung dari smartphone kamu dengan bergabung di WhatsApp Channel Kompasiana di SINI