Mohon tunggu...
Yana Haudy
Yana Haudy Mohon Tunggu... Geriatric Millennial

Penulis komunitas. Gig worker. Juru ketik di emperbaca.com. Best in Opinion Kompasiana Awards 2022

Selanjutnya

Tutup

Artificial intelligence Artikel Utama

Halusinasi AI Membuat Kita Tetap Perlu Mesin Pencari Konvensional

19 Agustus 2025   14:05 Diperbarui: 19 Agustus 2025   20:54 654
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Gambar diolah pribadi menggunakan Image Generator Canva

Pun saya juga harus mulai mengetikkan pertanyaan secara lebih lengkap, detail, dan memberitahukan konteks kalau ingin si AI tidak memberikan jawaban ngasal lagi.

Keliru dan tidak validnya informasi yang diberikan oleh chat AI seperti yang saya alami dikenal dengan istilah halusinasi AI.

Adanya halusinasi AI pada model chat generatif atau AI yang menolak untuk dimatikan adalah bagian implikasi sosial-ekonomi dan keamanan artificial intelligence. Hal ini sering diperingatkan oleh para tokoh AI terkemuka seperti Geoffrey Hinton pembangkit deep learning, Sam Altman CEO OpenAI, bahkan oleh Elon Musk sebagai pendiri Neuralink.

Elon mendefinisikan halusinasi AI sebagai kecenderungan kecerdasan buatan untuk menghasilkan keluaran yang tampak meyakinkan, tapi sesungguhnya tidak akurat bahkan dibuat-buat. 

Halusinasi AI

Meski Elon bicara soal halusinasi AI, tapi istilah itu bukan berasal darinya. Pada 2018-2019, istilah halusinasi AI dipopulerkan oleh komunitas riset NLP (Natural Language Processing) untuk menggambarkan keluaran model generatif AI seperti terjemahan atau chatting, yang percaya diri, tapi sebetulnya keliru bahkan dibuat-buat. 

Pada Juli 2021, Meta menjadi entitas pertama yang merumuskan definisi resmi halusinasi AI sebagai “pernyataan yang seolah-olah meyakinkan, padahal tidak benar."

Jenis halusinasi yang sering dilakukan oleh kecerdasan buatan:

  • Fact Hallucination di mana AI menyajikan klaim faktual yang salah atau tidak bisa diverifikasi.
  • Intrinsic Hallucination saat keluaran AI berkontradiksi dengan data atau konteks yang sudah diketahui benar.
  • Extrinsic Hallucination terjadi saat AI menambahkan informasi baru di luar cakupan sumber tanpa batasan verifikasi. Contohnya ngasih judul makalah padahal makalahnya tidak ada di dunia nyata.

Halusinasi AI pada model chatting seperti ChatGPT, Gemini, atau Copilot bisa makin sering terjadi karena sekarang ini hampir semua data dunia nyata sudah diproses dalam pelatihan AI, sehingga sumber data puncak (peak) mulai habis. 

Para ilmuwan AI sedang mempertimbangkan untuk beralih ke data sintetis (buatan). Data sintetis adalah kumpulan informasi yang dihasilkan secara artificial untuk meniru karakteristik statistik data dunia nyata tanpa memuat informasi asli. Data ini dibuat oleh algoritma generatif dan simulasi berbasis kecerdasan buatan, sehingga secara matematis menyerupai data sesungguhnya meski tidak mengandung data asli apa pun.

Bahayanya, pertumbuhan konten yang dihasilkan AI membuat semakin sulit membedakan antara data asli dan sintetis. Hal ini membuka celah untuk penyebaran misinformasi, deepfake, dan manipulasi opini publik lewat dataset atau AI yang tak terverifikasi.

AI atau Mesin Pencari?

Mesin pencari sekarang sudah terintegrasi dengan AI seperti Google RankBrain, Google BERT, dan Bing Copilot AI. AI akan memproses hasil dan merangkum serta menyintesiskan informasi sebelum menampilkan jawaban. Jawaban yang diberikan ke kita akan lebih lengkap dan terperinci karena menyertakan sumber primer (situs, dokumen, atau publikasi resmi).

HALAMAN :
  1. 1
  2. 2
  3. 3
Mohon tunggu...

Lihat Konten Artificial intelligence Selengkapnya
Lihat Artificial intelligence Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun