Saya sering pakai chat AI dari Microsoft karena kemampuannya meringkas jurnal, membaca situs, atau mencari judul buku dan makalah yang tidak ada di mesin pencari konvenstional seperti Google, Bing, atau Yandex. Namun, satu hari saya menemukan kalau jawaban AI agak janggal. Nama peneliti dengan yang ditelitinya gak nyambung. Si peneliti terkenal di bidang kimia, tapi makalahnya berbau biomolekul. Mungkin antara kimia dan biomolekul ada korelasi, tapi saya yang awam tetap merasa janggal.
Akhirnya saya Googling dan menemukan bahwa si peneliti ternyata tidak pernah membuat makalah seperti yang disebut oleh chat AI. Saya juga pernah menemukan informasi yang disuguhkan AI ternyata hasil tebakannya sendiri.
AI merespons kalau jawaban itu sudah sesuai dengan karakter saya sebagai editor dan pendidik. Pendidik dari mana?! Rupanya AI menebak saya seorang pendidik karena menemukan bahwa di internet saya menulis hal-hal edukatif di emperbaca.com dan membahas tentang pendidikan di Kompasiana.
Padahal, jawaban yang saya harapkan tidak ada hubungannya dengan konteks saya sebagai editor apalagi dengan pendidikan.
Pernah juga saat saya bukan tautan yang disertakan di jawaban chat AI, tautan itu ternyata tidak valid karena domainnya sudah tidak ada. Di awal-awal saya menggunakan chat AI saya tidak pernah membuka tautan yang disertakan. Namun, sejak AI memberikan judul makalah yang tidak pernah ada, saya jadi merasa harus membuka bila AI menjawab dengan menyertakan link.
Ternyata, memverifikasi sendiri jawaban yang diberikan chat AI memang sangat disarankan. Dalam konteks pengguna chat AI, hal itu dikenal dengan istilah human-in-the-loop.Â
Human-in-the-Loop (HITL)
Human-in-the-loop (HITL) adalah pendekatan di mana manusia secara aktif terlibat dalam siklus pelatihan, evaluasi, dan operasional sistem kecerdasan buatan. Alih-alih berjalan sepenuhnya otomatis, model AI mendapat masukan langsung dari manusia untuk meningkatkan akurasi, mengoreksi kesalahan, dan mengurangi bias data.
Human-in-the-loop berguna kalau kita akan terus menggunakan chat AI untuk "melatih" dan "mengendalikan" supaya informasi yang diberikan AI berjalan sesuai konteks dan selaras dengan kenyataan yang kita inginkan.Â
Misalnya, chat AI menebak saya sebagai seorang pendidik selain dari hasil artikel di Kompasiana, ternyata juga dari hasil percakapan saya dengannya selama berbulan-bulan ini. Entah percakapan soal apa (saya juga lupa), yang jelas pertanyaan-pertanyaan yang saya lontarkan kepada chat AI yang ternyata membuat ia menebak saya seorang pendidik.
Karena ia mengira saya pendidik, maka saat si chat AI tidak punya database atas pertanyaan yang saya ajukan, ia lantas mengarang jawaban berdasarkan pola interaksi saya dengannya selama ini. Karena itu untuk mengubah "persepsinya", saya harus memberitahu langsung siapa saya sebenarnya.