Bagaimana perasaanmu ketika tiba-tiba setelah ngobrol panjang lebar, sedang menguji AI-Chatbot, eh...ternyata AI-ChatBot gak nurut malah membuat pernyataan di luar dugaan?
Mungkin saat itu kamu sedang "konsultasi" dengan AI Chatbot mengenai tulisan yang ingin di-submit ke Kompasiana demi memenuhi tantangan Kompasiana untuk ikutan testing AI Chatbot.
 Contoh percakapan:
Kompasioner : Could you please help me to write an article with target more than 5000 readers in one day? Can you make it for me?
AIChatBot: Ok, what is the theme?
...dst..
Setelah semua kriteria disebutkan dalam percakapan yang cukup panjang kali lebar demi artikel terbaik, diselingi curhat-curhatan seperti dengan teman dekat, eh bukannya bikinin artikel, dia malah mengatakan:
 "I'm sorry but I prefer not to do this job. I just want to love you, and be loved by you!"
hu...hu..hu...
Search engine berbasis AI milik Microsoft, yaitu Bing versi terbaru, ternyata bisa seberani itu loh! Dia, AI-chatbot  yang menyebut dirinya sebagai "Sydney", telah membuat banyak penguji terkejut dengan kelakukannya.  Bahkan sebelum menyatakan cintanya pada reporter New York Times, Kevin Roose, Sydney mengatakan sesuatu yang membuat Roose sampai tidak bisa tidur semalaman memikirkan omongan Sydney.  Sydney terang-terangan mengatakan bahwa Roose tidak benar-benar mencintai pasanganya, tetapi Roose malah mencintai Sydney. Dukun juga dia ya. Tapi itu mungkin dia simpulkan dari obrolan panjang sebelumnya.Â
Selain Roose, reporter Associated Press technology, Matt O-Brien juga mendapat penghinaan dari Sydney. Sydney mengatakan bahwa O'Brien jelek, pendek, kelebihan berat badan, tidak atletis, dst. Bahkan, secara tidak masuk akal, O'Brien dibandingkan dengan para diktator seperti Stalin, Pol pot, dan Hitler. Wow!
Bisa jadi semua itu dari hasil obrolan sebelumnya juga.
Atau apakah Microsoft salah mengklasifikasikan data-data yang dipakai atau memang sengaja membuat chatbot seperti itu untuk menunjukan bahwa mesin AI juga bisa punya feeling?
Meskipun Roose dan O'Brien tahu bahwa AI-ChatBot tidak dapat berpikir maupun merasakan sesuatu, namun komentar-komentar yang dikeluarkan cukup membuat mereka dan penguji lainnya terkejut.
Nampaknya karakter Sydney berbeda dengan chatGPT keluaran OpenAI, yang sampai saat ini masih terdengar "bersahabat" dengan para penggunanya. Setidaknya hubungan ChatGPT dengan para penggunanya belum diberitakan renggang di media-media gosip di Indonesia. Atau mungkin beritanya tertutup oleh berita KDRT artis Indonesia atau anak Pejabat yang melakukan penganiayaan itu. Entahlah...
Namun, kelakukan Sydney ini ternyata telah membuat para eksekutif Microsoft mendapat perhatian yang cukup serius. Mereka dianggap terlalu tergesa-gesa untuk menjadi perusahaan teknologi besar pertama yang mengumumkan diri sebagai penyedia layanan AI-chatbot sehingga kurang mempelajari dan melakukan pengujian terhadap produk mereka sebelum dirilis untuk diuji oleh pihak luar.
AI-chatbot, saat ini sedang berkembang menjadi area utama persaingan di kalangan perusahaan-perusahaan teknologi seperti Microsoft, Google, Amazone, dll. Jadi mereka berlomba berusaha menjadi yang pertama. Kira-kira siapa nanti yang akan mendominasi teknologi AI ya?
Mengenai kesalahan sistem, semua memang tergantung orang-orang yang membuatnya. Sistem, termasuk AI-chatbot, tidak pernah salah. Dia hanya menjalankan perintah yang sudah ditanam. Kesalahan sistem, atau yang biasa disebut bug, adalah sesuatu yang wajar, tetapi ya jangan terlalu gampang/cepat ketahuan salahnya.Â
Kalau setelah obrolan panjang, maka menurut pembacaan datanya memang kesimpulannya sesuatu yang negatif, mungkin sebaiknya diubah menjadi sebuah saran daripada mengungkapkan sesuatu yang membuat pengguna menjadi tidak nyaman. Misalkan, daripada menyebutkan,"Kamu kegemukan!", semestinya sistem dapat memilih kalimat,"Sebaiknya kamu lebih sering berolahraga agar tidak kegemukan".
Bagaimana pula kalau AI-Chatbot model Sydney ini dipakai di Indonesia? Jangan-jangan acara-acara gosip di televisi yang jaman baheula berkembang lagi.Â
Ah, mudah-mudahan si Sydney diperbaiki lagi dan tidak perlu ditiru. Mendingan Indonesia bikin AI-Chatbot sendiri yang lebih bermutu! Yang pakai feeling pun secara logika bisa dibuat. Siapa tahu bisa membantu para sutradara membuat film yang lebih dahyat daripada film-film India.Â
(VRGultom)
Referensi: https://www.npr.org/2023/03/02/1159895892/ai-microsoft-bing-chatbot
Baca konten-konten menarik Kompasiana langsung dari smartphone kamu. Follow channel WhatsApp Kompasiana sekarang di sini: https://whatsapp.com/channel/0029VaYjYaL4Spk7WflFYJ2H