Oleh: Naysilla Zelliyana
"Kalau semua terasa cocok dan nyaman di beranda media sosialmu, bisa jadi kamu sedang tidak benar-benar memilih tapi dipilihkan."
Setiap hari kita mengakses media sosial tanpa rasa curiga. Konten yang muncul terlihat seolah "cocok" dengan selera, baik itu video lucu, isu politik yang sejalan dengan pendapat pribadi, atau barang yang tiba-tiba muncul setelah kita mendiskusikannya. Kita menyebutnya "relevan", walaupun sebenarnya ini merupakan bentuk personalisasi algoritma yang didasarkan pada AI. Tetapi apakah kita pernah mempertanyakan: apakah ini sesungguhnya kebebasan, atau malah suatu bentuk baru penjajahan digital yang membahayakan hak asasi manusia?
Dari Nyaman Menjadi Manipulatif
Teknologi kecerdasan buatan dibuat untuk "mengerti" kita. Algoritma menganalisis jejak digital: apa yang kita klik, tonton, suka, dan bahkan lama kita berhenti menggulir. Segala sesuatunya diproses agar media sosial dapat menyajikan konten yang "kita harapkan". Namun di sinilah letak risikonya karena ternyata, apa yang kita lihat tidak sepenuhnya merupakan pilihan kita.
Laporan Amnesty International 2023 menyebutkan bahwa algoritma pada platform digital secara aktif mendistribusikan konten yang meningkatkan keterlibatan, sering kali berbentuk disinformasi, polarisasi politik, atau ujaran kebencian karena jenis konten tersebut membuat pengguna tetap berlama-lama di platform. Dalam pelaksanaannya, ini melanggar hak untuk menerima informasi yang adil, seimbang, dan netral.
Buih Filter dan Demokrasi yang TertekanÂ
Saat kita hanya diberikan informasi yang sejalan dengan pemikiran kita, kita kehilangan sudut pandang yang berbeda. Ini menghasilkan "gelembung filter" gelembung informasi yang menjadikan dunia terlihat homogen dan sependapat dengan pandangan kita. Apa yang didapat? Diskusi umum semakin superficialis, kebencian antar komunitas meroket, dan masyarakat terfragmentasi.
Sebagai individu digital, kita secara bertahap mengalami kehilangan kebebasan berpikir kritis akibat algoritma menyajikan informasi yang memuaskan ego. Kita tidak lagi diuji untuk mempertanyakan, hanya dirangsang untuk menyetujui.Â
Diskriminasi Digital Itu Nyata
Algoritma bukan makhluk netral. Mereka dirancang oleh manusia dan membawa bias manusia itu ke dalam sistem. Lebih dari itu, pengguna dari komunitas rentan seperti LGBTQ+, kelompok etnis minoritas, atau masyarakat adat sering kali mengalami invisibilisasi dalam sistem algoritmik. Konten mereka tidak ditampilkan, dibatasi, atau bahkan diblokir secara sistematis. Ini adalah bentuk baru dari diskriminasi digital canggih, sunyi, namun sangat nyata.
Seperti yang diingatkan Edward Snowden, "Argumen bahwa Anda tidak peduli dengan hak privasi karena tidak punya apa pun untuk disembunyikan, sama seperti mengatakan Anda tidak peduli pada kebebasan berbicara karena tidak punya hal untuk dikatakan."Â Pernyataan ini menegaskan: persoalan digital bukan hanya soal teknis ini soal nilai dan hak asasi yang paling dasar.
Siapa yang Bertanggung Jawab?
Di Indonesia, regulasi terhadap AI dan algoritma masih minim. UU Perlindungan Data Pribadi (UU PDP) belum mengatur transparansi sistem rekomendasi konten. Kita butuh aturan yang lebih berani: tentang keterbukaan algoritma, kontrol pengguna atas preferensinya, hingga perlindungan atas bias diskriminatif.
Namun tanggung jawab tidak hanya di tangan pembuat kebijakan. Kita sebagai pengguna juga perlu sadar: jangan terlena oleh kenyamanan. Jangan biarkan mesin berpikir menggantikan kapasitas reflektif kita sebagai manusia merdeka.
Refleksi Pribadi: Bebas atau Tertawan?
Saya pun mengalami ini. Ketika media sosial saya terasa "aman" dan "cocok", saya senang. Tapi lama-lama saya sadar, saya tidak lagi mendapatkan sudut pandang baru. Saya berhenti berkembang secara intelektual dan emosional. Saya mulai mempertanyakan: apa yang hilang saat algoritma mulai menata hidup saya?
Yuval Noah Harari pernah memperingatkan dalam wawancaranya dengan BBC: "Jika kita membiarkan algoritma menentukan apa yang kita baca, beli, pikirkan pada akhirnya kita akan kehilangan kendali atas pilihan-pilihan kita sendiri."
Saatnya Kita Rebut Kembali Kendali
Kita tidak bisa menolak teknologi, tapi kita bisa menuntut etika dan keadilan dari teknologi. Personalisasi konten berbasis AI seharusnya tidak menjadi alat dominasi diam-diam yang membungkam, membatasi, bahkan mendikte realitas.
Sebagai warga digital, kita berhak tahu bagaimana sistem bekerja. Kita berhak mengontrol apa yang kita lihat. Dan yang paling penting, kita berhak untuk berpikir secara bebas, terbuka, dan manusiawi.
Karena ketika kenyamanan digital dibeli dengan harga kebebasan berpikir, itu bukan kemajuan itu penjara yang tak kasat mata.
"Jika kita membiarkan algoritma menentukan apa yang kita baca, beli, pikirkan---pada akhirnya kita akan kehilangan kendali atas pilihan-pilihan kita sendiri."
--- Yuval Noah Harari
Follow Instagram @kompasianacom juga Tiktok @kompasiana biar nggak ketinggalan event seru komunitas dan tips dapat cuan dari Kompasiana. Baca juga cerita inspiratif langsung dari smartphone kamu dengan bergabung di WhatsApp Channel Kompasiana di SINI