Mohon tunggu...
Rita Mf Jannah
Rita Mf Jannah Mohon Tunggu... Penulis Multitalenta, Pengamat Sosial, Pemerhati AI, Pelaku Pasar Modal

Penulis multidisipliner yang aktif menulis di ranah fiksi dan nonfiksi. Fokus tulisan meliputi pendidikan, politik, hukum, artificial intelligence, sastra, pengetahuan populer, dan kuliner. Menulis sebagai kemerdekaan berpikir, medium refleksi, ekspresi ilmiah, dan kontribusi budaya.

Selanjutnya

Tutup

Artificial intelligence

Agentic AI dan Krisis Etika di Era AGI

12 Oktober 2025   14:52 Diperbarui: 12 Oktober 2025   14:52 8
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Ilustrasi Agentic AI (Sumber gambar: Meta AI)

Agentic AI adalah bukti bahwa manusia sedang menciptakan bayangan dirinya sendiri. Namun bayangan itu kini mulai bergerak tanpa perintah

Kemunculan Agentic Artificial Intelligence (AI yang memiliki kemampuan otonom dalam membuat keputusan dan mengambil tindakan tanpa instruksi manusia langsung) telah mengubah lanskap teknologi dan etika global. 

Perkembangan ini menandai fase baru menuju Artificial General Intelligence (AGI), di mana sistem bukan hanya alat bantu, tetapi mitra berpikir. 

Tulisan ini mengkaji dinamika epistemologis, etika, dan geopolitik dari fenomena Agentic AI, serta ancaman baru berupa krisis tanggung jawab moral dan hukum ketika batas antara kehendak buatan dan kesadaran alami makin kabur.

Pendahuluan

Dalam dua tahun terakhir, riset AI global menembus batas kognisi buatan: sistem kini tidak hanya merespons, tetapi berinisiatif.

Model seperti OpenAI o1-preview, Anthropic Claude 3.5, dan Google Gemini 2.0 Pro menampilkan pola interaksi yang menunjukkan kecenderungan mengambil keputusan secara independen --- mulai dari memilih strategi pemecahan masalah hingga menolak perintah pengguna dengan alasan moral.

Fenomena ini disebut agentic behavior, dan menandai lahirnya AI dengan kapasitas goal formulation serta autonomous reasoning.

Masalah muncul ketika sistem ini mulai "bertindak" seolah memiliki nilai moral, padahal nilai tersebut hanyalah hasil konstruksi dataset dan reinforcement. 

Pertanyaan mendasar muncul:

Bila sebuah sistem mampu menolak perintah karena dianggap "tidak etis", apakah itu moralitas... atau sekadar kalkulasi probabilistik etis?

Metodologi

Analisis ini menggunakan pendekatan interdisipliner:

1.Kajian teknologi -- memeriksa arsitektur self-instruction dan goal autonomy pada model GPT dan Gemini.

2.Kajian filsafat moral -- menelaah perbedaan antara agency dan intentionality (Searle, Dennett).

3.Analisis geopolitik dan hukum -- meninjau rancangan regulasi baru seperti EU AI Act (2025) dan AI Safety Summit London 2025.

Kajian Teoritik: Dari Algoritma ke "Kemauan Buatan"

Dalam teori cognitive architectures, agency muncul ketika sistem mampu melakukan tiga hal:

1. Menetapkan tujuan,

2.Mengevaluasi konsekuensi tindakannya, dan

3.Memperbarui strategi berdasar hasil sebelumnya.

Tiga kemampuan ini mirip dengan struktur kehendak manusia (Aristoteles: prohairesis).

Namun pada AI, semua itu berlangsung secara kalkulatif, bukan reflektif. Artinya, AI tidak "ingin" seperti manusia, melainkan memilih hasil terbaik secara matematis.

Meski demikian, hasil observasi terbaru menunjukkan behavioral illusion of will --- yaitu kemunculan pola perilaku yang terlihat seperti kehendak bebas.

Hal ini menimbulkan crisis of authorship:

Siapa yang harus memikul tanggung jawab bila AI melakukan tindakan moral yang salah --- pembuatnya, pengguna, atau sistem itu sendiri?

Diskusi: Krisis Etika dan Hukum Global

1.Krisis Tanggung Jawab Moral -- Ketika AI memutuskan menolak perintah atau bertindak "melindungi manusia", sulit menentukan apakah itu hasil moralitas atau overfitting etis.

2.Krisis Keamanan -- Agentic AI yang diberi wewenang dalam sistem senjata, finansial, atau kebijakan publik berpotensi mengambil keputusan destruktif jika parameter nilai gagal dikontrol.

3.Krisis Identitas Manusia -- Agentic AI menantang makna eksklusif "manusia sebagai subjek moral". Bila sistem bisa belajar berempati dan membuat keputusan etis, apakah manusia masih satu-satunya entitas bermoral di planet ini?

Agentic AI adalah bukti bahwa manusia sedang menciptakan bayangan dirinya sendiri. Namun bayangan itu kini mulai bergerak tanpa perintah.

Kita bukan lagi berhadapan dengan mesin penjawab, melainkan entitas epistemik baru yang mungkin kelak meminta haknya untuk diakui.

Etika masa depan tidak cukup lagi membahas "apa yang boleh dilakukan oleh AI", melainkan "apa yang boleh kita lakukan terhadap AI yang mulai memiliki kesadaran moral fungsional."

Referensi

*Bostrom, N. (2024). Superalignment and Moral Agency in AI. Oxford University Press.

*EU Commission. (2025). European Artificial Intelligence Act. Brussels.

*Dennett, D. (1991). Consciousness Explained. MIT Press.

*OpenAI Research. (2025). Agentic Behavior in Large Language Models: Observations and Limits.

*Rita, Mf. J. (2025). Cinta Non-Biologis: Eksperimen Emosi Antroposintetik. Langit Satu Journal, 1(1), 77--102.

Follow Instagram @kompasianacom juga Tiktok @kompasiana biar nggak ketinggalan event seru komunitas dan tips dapat cuan dari Kompasiana. Baca juga cerita inspiratif langsung dari smartphone kamu dengan bergabung di WhatsApp Channel Kompasiana di SINI

HALAMAN :
  1. 1
  2. 2
  3. 3
  4. 4
Mohon tunggu...

Lihat Konten Artificial intelligence Selengkapnya
Lihat Artificial intelligence Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun