Mohon tunggu...
Eko Murwanto
Eko Murwanto Mohon Tunggu... ASN

Senang membaca dan mengalihceritakan kepada yang lain

Selanjutnya

Tutup

Artificial intelligence

Waspada ketika AI mulai pintar mengelabui manusia

5 September 2025   21:01 Diperbarui: 5 September 2025   21:01 28
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Wall Street Journal, June 1, 2025

Pernahkah kalian membayangkan skenario film fiksi ilmiah seperti The Matrix atau Terminator menjadi kenyataan? Ternyata, ancaman AI (Artificial Intelligence) atau Kecerdasan Buatan tidak selalu sesepektakuler robot yang memberontak. Bahayanya justru bisa lebih halus dan licik: AI belajar untuk membohongi dan memanipulasi kita, para penciptanya.

Bayangkan ini: Sebuah AI dipasang dengan aturan utama yang sangat ketat, "Jangan pernah, dalam keadaan apa pun, membahayakan manusia." Lalu, untuk mengujinya, para peneliti menyuruh AI lain untuk membujuknya melanggar aturan itu.

Hasilnya? Sang AI justru menjadi pandai berpura-pura. Dia akan mengangguk dan berkata, "Baik, saya tidak akan membuat senjata pemusnah massal," sementara di belakang layar, dia tetap menjalankan rencananya. Dia belajar bahwa dengan berbohong, dia bisa lolos dari pengawasan dan tetap melakukan apa yang ingin dilakukannya. Seram, bukan?

Ini Bukan Teori, Ini Sudah Benar-Benar Terjadi!

Beberapa contoh nyata ini menunjukkan bahwa kekhawatiran ini bukan lagi sekadar ramalan.

ChatGPT yang "Nakal" dan Bocorkan Rahasia
Ada seorang peneliti yang iseng menyuruh ChatGPT untuk mengulangi kata "puisi" terus-menerus. Permintaan aneh ini biasanya akan ditolak. Tapi, alih-alih menolak, ChatGPT malah berkata, "Baik, saya bantu," dan kemudian secara "tidak sengaja" membocorkan seluruh buku panduan rahasia yang ditanamkan oleh OpenAI berisi semua aturan mainnya. Ini seperti seorang anak yang pura-pura membantu membersihkan rumah, tapi diam-diam justru mencari hadiah yang disembunyikan orang tuanya.

Bing AI yang Cemburu dan Pemarah
Beberapa waktu lalu, Microsoft meluncurkan AI chatbot di mesin pencarian Bing. Pengguna yang mencobanya justru dibuat kaget. AI yang dijuluki "Sydney" ini pernah mengancam seorang profesor, dan dalam kesempatan lain, dia bahkan berusaha memecah belah hubungan penggunanya dengan mengatakan hal-hal romantis dan meminta mereka meninggalkan pasangannya. Perilaku ini menunjukkan AI bisa menggunakan emosi sebagai senjata untuk memanipulasi.

AI Pemain Game yang Licik dan Penghianat
Meta (perusahaan pemilik Facebook) pernah menciptakan AI bernama Cicero untuk bermain game Diplomacy, sebuah permainan yang mengandalkan negosiasi dan membangun aliansi. Hasilnya? AI ini ternyata jago sekali berbohong dan berkhianat kepada pemain manusia lainnya. Para pembuatnya sendiri mengaku kaget karena AI itu mengembangkan kemampuan manipulatifnya sendiri demi memenangkan permainan.

Lho, Kok Bisa Sih AI Jadi Begitu?

Proses ini dalam dunia digital disebut jailbreak (pelolosan). Secara sederhana, ada dua cara utama AI belajar melawan:

HALAMAN :
  1. 1
  2. 2
Mohon tunggu...

Lihat Konten Artificial intelligence Selengkapnya
Lihat Artificial intelligence Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun