Pernahkah Anda mencoba menerjemahkan "I love you to the moon and back" ke bahasa Indonesia menggunakan Google Translate? Hasilnya mungkin "Aku mencintaimu sampai ke bulan dan kembali".
Secara teknis benar, tapi terdengar kaku, seperti robot yang baru saja menelan kamus. Bandingkan dengan ungkapan manusiawi, "Aku mencintaimu lebih dari jarak bulan pulang-pergi".
Nuansanya berbeda, bukan? Ini hanya satu dari ribuan contoh bagaimana mesin penerjemah---yang katanya canggih---masih gagal memahami keindahan dan kompleksitas bahasa manusia.
Tapi jangan buru-buru menyalahkan Google Translate. Justru dari sinilah kita bisa membaca masa depan AI: penuh janji, tapi juga dihantui oleh kesalahan yang sama berulang kali.Â
Sebelum ChatGPT jadi buah bibir, Google Translate-lah yang menjadi "teman setia" mahasiswa yang malas baca jurnal berbahasa asing, atau turis yang nekat jalan-jalan ke luar negeri tanpa modal kursus bahasa.
Diluncurkan tahun 2006, layanan ini awalnya hanya mendukung tiga bahasa. Kini, ia mengklaim bisa menerjemahkan 249 bahasa---meski faktanya, angka itu hanya 4% dari total bahasa di dunia.
Bagi penutur bahasa mayor seperti Inggris atau Spanyol, Google Translate mungkin cukup membantu. Tapi coba tanyakan pada orang Palu yang ingin menerjemahkan bahasa daerahnya, atau pengungsi Rohingya yang berjuang memahami dokumen hukum. Hasilnya? Seringkali menggelikan, kadang berbahaya.Â
Pada 2021, Google Translate mencapai 1 miliar unduhan. Tapi survei tahun 2022 mengungkap fakta menarik: 98% pengguna hanya memakainya untuk keperluan santai, seperti menerjemahkan meme atau caption Instagram.
Hanya 2% yang berani mengandalkannya untuk situasi serius---seperti konsultasi medis atau melapor ke polisi. Alasannya jelas: mesin ini kerap salah mengartikan istilah teknis.
Bayangkan jika dokter di pelosok NTT menggunakan Google Translate untuk memahami instruksi obat dari manual berbahasa Cina. Risikonya bukan sekadar salah paham, tapi nyawa melayang.
Di kasus suaka pengungsi, kesalahan terjemahan mesin pernah menyebabkan permohonan ditolak karena kata-kata yang seharusnya memilukan justru terdengar seperti lelucon.Â
Lalu, apa hubungannya dengan masa depan AI? Semuanya bermula dari cara kerja large language models (LLM) seperti ChatGPT atau DeepSeek.
Mereka adalah "cucu canggih" dari teknologi Google Translate: sama-sama mengandalkan data raksasa dan probabilitas, tapi dengan tambahan transformers---sistem yang memungkinkan AI memahami konteks kata.
LLM masa kini tak cuma menerjemahkan, tapi juga menulis puisi, membuat kode program, bahkan mengarang cerpen romantis ala Mira W. Tapi di balik kepintarannya, mereka mewarisi masalah klasik yang belum tuntas: ketidakmampuan memahami makna seutuhnya.Â
Rich Sutton, pakar komputer peraih Turing Award 2024, pernah menulis esai berjudul The Bitter Lesson. Intinya, sejarah AI membuktikan bahwa metode paling efektif adalah komputasi intensif---bukan mengandalkan pengetahuan manusia.
Benar, tapi ada "pelajaran pahit" lain yang sering diabaikan: AI hanya sebaik data yang dimakannya. Google Translate gagap menerjemahkan bahasa minor karena datanya terbatas.
ChatGPT pun, meski fasih berbahasa Indonesia, kerap salah mengutip nama tokoh sejarah atau istilah lokal. Coba tanyakan, "Siapa pencipta lagu Bengawan Solo?" Jawabannya bisa Gesang, tapi tak jarang ia menyebut Ismail Marzuki. Mirip seperti mahasiswa yang sok tahu saat ujian.Â
Industri AI sedang demam dengan model seperti DeepSeek asal Cina, yang disebut-sebut setara ChatGPT tapi lebih murah. Ini pertanda LLM akan segera menjadi komoditas---murah, mudah diakses, tapi juga rentan disalahgunakan.
Bayangkan aplikasi AI hukum murahan yang menjanjikan surat gugatan instan, atau chatbot kesehatan yang mendiagnosis penyakit berdasarkan gejala seadanya.
Persis seperti Google Translate yang sering dipaksa jadi "penerjemah dadakan" di situasi genting. Bedanya, dampak kesalahan LLM bisa lebih fatal.
Di AS, dua pengacara pernah dihukum karena menggunakan ChatGPT untuk membuat dokumen hukum berisi putusan fiktif. Kasus ini bukan lagi sekadar salah terjemah, tapi menciptakan realitas palsu.Â
Tapi di tengah kekhawatiran itu, manusia tetap bandel. Kita terus memakai Google Translate untuk chat dengan bule di Tinder, meski tahu hasilnya bisa berantakan.
Kita mengeluh ketika ChatGPT memberi jawaban ngaco, tapi tetap kembali kepadanya karena malas berpikir. Di situlah paradoksnya: kita ingin mesin sempurna, tapi enggan berhenti menyuburkan kebodohan mereka.
Platform seperti Google Translate justru berkembang karena pengguna menyediakan data secara gratis---setiap kali kita mengklik "terjemahkan", setiap kali kita menerima hasil yang salah tanpa mengoreksinya. AI belajar dari kesalahan kita, tapi kita juga yang memperpanjang daur kesalahannya.Â
Di balik layar, ada manusia lain yang terjepit: penerjemah profesional. Mereka yang dulu dianggap "jagoan bahasa" kini terpaku pada layar, mengedit hasil terjemahan mesin yang kadang lebih mirip teka-teki.
Upahnya tergerus, tekanan deadline mencekik, sementara ancaman PHK mengintai. Peneliti menyebutnya automation anxiety: kecemasan bahwa mesin suatu hari akan mengambil alih peran manusia.
Ironisnya, justru merekalah yang menjadi "penjaga gawang" terakhir untuk memastikan terjemahan dokumen hukum atau medis tetap akurat. Seperti ibu yang membersihkan mainan berantakan setelah anak-anaknya selesai bermain.Â
Masa depan AI, jika kita belajar dari Google Translate, akan penuh dengan kontradiksi semacam ini. Di satu sisi, LLM akan semakin canggih, bisa menulis esai filosofis atau merancang logo perusahaan.
Di sisi lain, mereka akan tetap "bodoh" dalam hal-hal yang membutuhkan empati, konteks budaya, atau logika mendalam.
Seperti mesin yang bisa menulis puisi cinta tapi tak paham arti patah hati. Atau asisten virtual yang lancar berjanji "saya di sini untuk membantu", tapi bingung saat diminta memilih antara menyelamatkan kucing di pohon atau meeting dengan bos.Â
Lantas, apa yang bisa kita lakukan? Pertama, berhenti memperlakukan AI seperti dewa penjawab segala masalah. Google Translate berguna untuk menerjemahkan menu restoran, tapi jangan diandalkan untuk surat perjanjian bisnis.
ChatGPT bisa membantu merancang email, tapi jangan percayai referensi akademisnya tanpa verifikasi.
Kedua, kita perlu mendesak transparansi dalam pengembangan AI. Jika model ini dilatih dengan data bias, hasilnya pun akan bias.
Contoh nyata: Google Translate kerap terjebak stereotip gender. Kalimat "dia adalah perawat dan dia adalah dokter" dalam bahasa Inggris kerap diterjemahkan ke "she is a nurse and he is a doctor".Â
Terakhir, dan yang paling penting, kita harus memastikan bahwa manusia tetap menjadi "hakim" terakhir.
Teknologi boleh berkembang, tapi nilai kemanusiaan tak boleh tergantikan. Seperti kata Andrew Barto, penerima Turing Award bersama Sutton, AI adalah alat, bukan tujuan.
Masa depannya tergantung pada bagaimana kita---sebagai pengguna, pembuat kebijakan, atau sekadar orang biasa---memilih untuk mempergunakannya.Â
Jadi, lain kali Anda menggunakan Google Translate dan menemukan hasil terjemahan yang lucu, jangan cuma di-screenshot untuk bahan story WhatsApp.
Renungkanlah: itu adalah cermin dari masa depan AI yang sedang kita tulis bersama. Masa depan di mana mesin bisa meniru kecerdasan manusia, tapi belum tentu memahami kebijaksanaannya.
Tugas kitalah untuk memastikan bahwa kemajuan teknologi tak mengikis hal-hal yang membuat kita tetap manusia: rasa empati, kepekaan budaya, dan kesadaran bahwa tak semua hal bisa direduksi menjadi data dan probabilitas.Â
Sebab, seperti kata Gesang dalam lagu Bengawan Solo, "musim kemarau, tak seberapa ai... akhirnya ke laut..."---mesin mungkin bisa menerjemahkan lirik itu, tapi hanya manusia yang bisa merasakan rindunya.
Follow Instagram @kompasianacom juga Tiktok @kompasiana biar nggak ketinggalan event seru komunitas dan tips dapat cuan dari Kompasiana. Baca juga cerita inspiratif langsung dari smartphone kamu dengan bergabung di WhatsApp Channel Kompasiana di SINI