Banyak orang bicara soal era baru AI. AI adalah singkatan dari kecerdasan buatan. Nama teknologi baru itu Agentic AI.
Ini adalah jenis AI yang bisa bertindak mandiri. Ia bisa membuat rencana secara mandiri.
Ia juga bisa mengambil inisiatif sendiri. AI ini tidak lagi menunggu perintah manusia.
Konsep kerja AI ini sangat sederhana. Manusia hanya memberinya sebuah tujuan.
Lalu ia akan mencari cara terbaiknya. Ia melakukannya untuk mencapai tujuan itu (Google Cloud; IBM).
Google Gemini adalah salah satu contohnya. LangGraph juga menjadi contoh pengembangan ini. Keduanya menunjukkan arah pengembangan teknologi AI.
Terdengar seperti lompatan besar dari teknologi kita. Selama ini, AI adalah asisten patuh.
Kita suruh A, ia kerjakan A. Tapi AI mandiri ini sangat berbeda.
Banyak orang merasa sangat antusias. Katanya, hidup akan jadi jauh lebih mudah. Semua urusan rumit dapat diserahkan.
Urusan itu misalnya perencanaan perjalanan. Atau juga untuk melakukan riset pasar. Semuanya bisa diserahkan penuh pada AI.
Namun kita harus berhenti sejenak. Kita perlu melihatnya lebih dalam. Apakah antusiasme ini sudah memperhitungkan semua aspek?
Sebab perubahan teknologi jarang terjadi instan. Prosesnya tidak semudah membalik telapak tangan.
Sering kali, prosesnya lambat penuh masalah. Garis antara AI patuh dan mandiri.
Sebenarnya garis itu tidak begitu jelas. Keduanya lebih mirip sebuah rentang.
Bukan seperti saklar mati dan hidup. Saklar itu tidak bisa langsung dinyalakan.
Kita juga perlu melihat risiko yang ada. Kita harus melihatnya dengan lebih jernih. Orang sering membayangkan risiko yang dramatis.
Misalnya AI menjadi jahat seperti film. Atau AI membuat kesalahan fatal sekali. Tentu itu adalah sebuah kemungkinan.
Tapi ada risiko lain yang lebih dekat. Risiko itu lebih sunyi dan nyata. Risiko itu bisa terjadi dalam waktu dekat.
Risiko itu adalah soal tanggung jawab. Ini adalah sebuah area abu-abu.
Misalkan AI salah mengambil keputusan bisnis. Lalu perusahaan rugi sangat besar. Siapa yang harus bertanggung jawab hukum?
Apakah penggunanya yang harus bertanggung jawab? Ataukah perusahaan teknologi yang membuatnya? Hukum sekarang belum siap menjawabnya (Senna Labs).
Ini adalah kekosongan regulasi sangat berbahaya.
Selain itu ada risiko bagi kita. Jika semua hal diatur oleh AI. Mulai dari jadwal liburan sampai kerja. Apa yang tersisa untuk kita kerjakan?
Kemampuan kita untuk berpikir sangat kritis. Kemampuan membuat rencana juga bisa tumpul. Masalah tidak bisa kita selesaikan sendiri.
Beberapa studi bahkan telah menunjukkannya. Ada korelasi penggunaan AI berlebihan. Dengan penurunan aktivitas kognitif kita (Nextgov, 2025).
Kita mungkin menjadi terlalu pasif. Kita menyerahkan kemandirian demi sebuah kemudahan.
Lalu, bagaimana kita harus bersikap? Sebagian pihak menyarankan kita untuk percaya. Percaya pada niat baik pengembang teknologi.
Tapi mengandalkan iktikad baik itu naif. Perusahaan teknologi adalah entitas bisnis.
Tujuan utama mereka adalah mencari keuntungan. Keamanan dan etika bukan prioritas utama.
Jalan yang masuk akal adalah kombinasi. Inovasi bertanggung jawab dan pengawasan ketat.
Pertama, harus ada aturan main jelas. Aturan itu dibuat oleh pemerintah.
Regulasi kuat tidak menghambat inovasi. Regulasi itu memastikan teknologi tetap aman.
Contohnya adalah langkah Uni Eropa. Mereka membuat aturan bernama EU AI Act. Itu adalah sebuah kerangka kerja komprehensif. Aturan itu mengatur AI berdasarkan risiko.
Kedua, manusia harus memegang kendali terakhir. Konsep ini dikenal human-in-the-loop (Humans in the Loop).
Biarkan AI yang menyusun semua rencana. Atau biarkan AI memberi sebuah rekomendasi. Tapi keputusan akhir ada di tangan manusia.
Masa depan AI bukan untuk menggantikan kita. AI seharusnya memberdayakan kita semua. Agar kita bisa membuat keputusan lebih baik.
***
Referensi:
- Google Cloud. (n.d.). What is agentic AI? Diakses 24 Agustus 2025, dari https://cloud.google.com/discover/what-is-agentic-ai
- Humans in the Loop. (n.d.). How humans in the loop powers responsible AI through data annotation. Diakses 24 Agustus 2025, dari https://humansintheloop.org/how-humans-in-the-loop-powers-responsible-ai-through-data-annotation/
- IBM. (n.d.). How to scale responsible agentic AI. Diakses 24 Agustus 2025, dari https://www.ibm.com/think/insights/scale-responsible-agentic-ai
- Senna Labs. (n.d.). Liability issues with autonomous AI agents. Diakses 24 Agustus 2025, dari https://sennalabs.com/blog/liability-issues-with-autonomous-ai-agents
- Sharma, S. K. (2025, July). New MIT study suggests too much AI use could increase cognitive decline. Nextgov. https://www.nextgov.com/artificial-intelligence/2025/07/new-mit-study-suggests-too-much-ai-use-could-increase-cognitive-decline/406521/
Follow Instagram @kompasianacom juga Tiktok @kompasiana biar nggak ketinggalan event seru komunitas dan tips dapat cuan dari Kompasiana. Baca juga cerita inspiratif langsung dari smartphone kamu dengan bergabung di WhatsApp Channel Kompasiana di SINI