Â
Pelaksanaan pemilihan umum (Pemilu) menjadi pilar utama dalam menjunjung tinggi demokrasi. Pada tahun 2024, perhelatan politik terbesar di negeri ini akan berlangsung. Pemilihan legislatif dan presiden akan dilaksanakan serentak pada Februari 2024. Kemudian, pemilihan serentak kepala daerah pada akhir 2024. Pesta rakyat 2024 yang sebentar lagi akan tiba menghadapi ancaman baru berupa kehadiran kecerdasan buatan (AI).
 AI merupakan teknologi yang mampu melaksanakan berbagai tugas manusia, bahkan saat ini AI dapat mengantikan peran manusia. AI sudah diuji coba secara luas untuk mengenali pola, mengambil keputusan serta belajar big data. Ancaman AI tentu tidaklah main-main. Sebab, AI dapat mempengaruhi dan menganggu hasil pemilihan. Ancaman ini menunjukkan adanya perubahan besar dalam dunia perpolitikan. Khususnya masa kampanye yang harus menghadapi tantangan baru bagi keamanan pemilihan dan integritas demokrasi.
  Salah satu kekhawatiran utama ancaman AI adalah penyebaran disinformasi dan hoaks. AI dapat menghasilkan berita palsu melalui pembuatan video, gambar, dan rekaman suara yang hampir mirip dengan aslinya. Penyebaran berita hoaks akibat AI tidak hanya dalam bentuk tulisan atau pertanyaan di media. Namun, kini muncul dalam bentuk suara yang seolah-olah berasal dari orang sebenarnya. Seperti halnya, dengan tersebarnya suara yang mirip dengan Presiden Joko Widodo menyanyikan lagu Rungkat dari Happy Asmara. Fenomena tersebut dikenal dengan istilah deepfake, yaitu gabungan dari istilah deep learning, yang merupakan pembelajaran mesin menirukan cara kerja otak manusia dengan cara mencontoh dan fake (palsu).
  Pengubahan data dengan menggunakan AI dapat menciptakan hoaks yang digunakan sebagai propaganda dengan menggunakan konten deepfake. Jenis konten ini mudah mempengaruhi pandangan masyarakat. Bahkan, ancaman ini dapat merusak integritas dan kredibilitas pemilu 2024. Kita bisa membayangkan bagaimana dahsyatnya kecerdasan buatan (AI) ini jika digunakan untuk kepentingan politik tertentu, terutama saat pemilu.
  Selain pengubahan data, ada potensi penggunaan AI dalam serangan siber terhadap infrastruktur pemilihan. AI dapat dapat merusak sistem penghitungan suara elektronik, ancaman peretasan data identitas pemilih, dan gangguan terhadap sistem dapat mengguncang kepercayaan publik terhadap integritas pemilu.
 Untuk menghadapi ancaman ini pemerintah, partai politik, dan lembaga pemilihan perlu mengambil langkah-langkah proaktif. Berikut beberapa tindakan yang dapat diambil
- Peningkatan kesadaran melalui upaya preventif
Berkaca pada fenomena hoaks yang tidak dapat dilepaskan dari pemilu. Sudah seyogyanya perlu upaya preventif melalui pengembangan budaya literasi masyarakat Indonesia. Hal tersebut menjadi tantangann besar bagi pemerintah. Sebab, saat ini tingkat literasi digital masyarakat Indonesia hanya sebesar 62%. Jumlah ini menjadi yang terendah diantara negara di ASEAN dimana rata-rata tingkat literasi digital negara lain mencapai 70%.
Perlunya upaya percepatan untuk mengejar tingkat literasi digital melalui pendidikan formal maupun program-program yang menyasar masyarakat. Selain itu, pemerataan infrastruktur digital sangat diperlukan guna memastikan akses internet yang merata hingga pelosok negeri.
- Pengaturan yang ketat
Berkaca pada pemilu 2019, fenomena hoaks yang terjadi merajalela begitu saja di kalangan masyarakat. Apalagi menjelang pemilu 2024 mendatang, informasi hoaks diprediksi akan lebih masif, ditambah dengan adanya perkembangan AI seperti sekarang. Maka dari itu perlu adanya peran dari pemerintah untuk memperketat kampanye online.
 Dalam menghadapi pemilu 2024, perlu adanya keseimbangan antara memanfaatkan kecerdasan buatan untuk kebaikan demokrasi dan melindungi pemilihan dari potensi ancaman teknologi ini. Intinya, kecerdasan buatan (AI) dalam demokrasi suatu bangsa perlu diatur dengan baik dan transparan oleh semua pihak. Tujuannya adalah untuk meningkatkan kesejahteraan masyarakat dan menjunjung tinggi nilai-nilai demokrasi, seperti keadilan, kesetaraan, partisipasi dan akuntabilitas dalam pemilihan.