4. Risiko dalam Sektor Militer dan Keamanan Nasional
Tak hanya dipakai di dunia bisnis, seni, hobi, dan pekerjaan sehari-hari. Ai juga kini sudah dikembangkan untuk senjata otonom. Bila sistem teknologi militer yang menggunakan AI ini diretas -- seperti dalam berbagai film fiksi masa depan, tentu akibatnya bisa liar dan membahayakan. Teknologi AI yang digunakan tanpa kendali manusia, bisa menimbulkan perang tanpa batas. Mesin itu bertindak secara otonom, dan sangat membayakan.
5. Ketergantungan Berlebihan pada AI
Tak dapat dipungkiri, kini ada kecenderungan yang kuat bahwa semakin canggih AI, semakin besar ketergantungan kita. Tapi bagaimana jika suatu hari AI mengalami kesalahan fatal atau bahkan berkembang di luar kendali manusia? Inilah yang dikhawatirkan banyak ahli. Termasuk Geoffrey Hinton, pionir AI yang belakangan justru mengkhawatirkan dampak dari teknologi yang ia kembangkan sendiri.
6. Kurangnya Regulasi dan Etika AI
Karena AI bisa melakukan banyak hal, maka kedepan semua dampak yang mungkin terjadi harus bisa diantisipasi sejak awal. Tanpa regulasi yang jelas, AI bisa liar. Bila ini terjadi, siapa yang akan bertanggung jawab jika ada kesalahan dan dampak yang fatal? Karena itu, rasanya perlu ada aturan global yang benar-benar mengikat dalam penggunaan AI, terutama yang berbasis Deep Learning.
8 Profesional Kunci yang Mengawal Regulasi dan Etika AI
Sekarang kita tahu bahwa Deep Learning bukan sekadar inovasi biasa, tapi juga bisa menjadi ancaman serius jika tidak dikendalikan. Sebagai orang yang cukup lama berkecimpung di duia Risk Management dan Crisis Management, sungguh, saya agak khawatir juga dengan kecenderungan ini.
Nah, masaahnya sekarang: siapa saja yang bisa berperan dalam memastikan AI tetap berada di jalur yang benar? Expert seperti apa yang bisa kita andalkan?
Sepengetahuan saya, inilah 8 Profesional Kunci yang bisa menjadi benteng pertahanan terhadap risiko potensial Deep Learning:
1. Ahli Keamanan Siber (Cybersecurity Expert)
Mereka adalah para penjaga gawang dalam dunia digital. Tugas mereka adalah memastikan bahwa sistem AI tidak mudah diretas atau disalahgunakan. Para hacker kawakan harus diundang, untuk menguji sistem keamanannya sudah benar-benar ok, kuat, dan berlapis. Dengan meningkatnya ancaman deepfake dan pencurian data, ahli keamanan siber harus selalu empat lebih maju dari para peretas.
2. Etika Teknologi dan Filsuf AI (AI Ethics Specialist)
Bukan hanya teknisi dan insinyur yang diperlukan dalam mitigasi risiko AI, tapi juga mereka yang memahami etika teknologi. Bagaimana AI seharusnya digunakan? Apa batasan moral yang harus diterapkan? Pakar etika AI membantu merumuskan prinsip-prinsip agar teknologi ini tidak disalahgunakan untuk tujuan yang merugikan umat manusia.
3. Regulator dan Pembuat Kebijakan AI (AI Policy Maker & Government Regulator)
Tanpa regulasi yang jelas, AI bisa berkembang liar dan berpotensi merugikan banyak pihak. Regulator di bidang teknologi dan hukum bertugas menciptakan kebijakan yang mengikat agar AI tetap berjalan sesuai koridor yang aman dan etis. Mereka juga berperan dalam merancang standar global dalam pengembangan AI.
Diskusi terkait ini, rasanya jarang saya dengar dari para akademisi dan disampaikan ke publik dengan terbuka. Bagaimana pun juga masyarakat juga harus dicerahkan dengan isu-isu keamanan AI dan Deep Learning ini.
4. Data Scientist dan Machine Learning Engineer
Mereka adalah para arsitek AI. Meskipun mereka menciptakan Deep Learning, mereka juga bertanggung jawab untuk memastikan sistem ini tidak disalahgunakan. Dengan pemrograman yang lebih transparan dan sistem AI yang lebih etis, mereka bisa meminimalisir bias, kesalahan, dan potensi penyalahgunaan teknologi.