Mohon tunggu...
Syahiduz Zaman
Syahiduz Zaman Mohon Tunggu... UIN Maulana Malik Ibrahim Malang

Penyuka permainan bahasa, logika dan berpikir lateral, seorang dosen dan peneliti, pemerhati masalah-masalah pendidikan, juga pengamat politik.

Selanjutnya

Tutup

Filsafat Pilihan

Kepercayaan Tanpa Peta: Menimbang Transparansi dan Kerentanan dalam AI

30 Juni 2025   05:34 Diperbarui: 30 Juni 2025   05:34 50
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Ilustrasi transparansi dan kerentanan dalam AI. (Images generated by Dall-E)

Apakah mungkin mempercayai sesuatu yang tak bisa kita pahami? Pertanyaan ini---yang tampak sederhana---telah menjadi inti dari debat mengenai kecerdasan buatan (AI) modern. Dalam artikel Trust and Transparency in Artificial Intelligence (2025), filsuf Thomas Mitchell menyodorkan argumen yang tak lazim sekaligus provokatif: justru karena AI bersifat tak transparan---karena ia sebuah "kotak hitam"---maka kepercayaan menjadi mungkin. Ini bukan sekadar permainan logika, tapi sebuah tantangan mendalam terhadap asumsi kita selama ini bahwa "transparansi" adalah syarat utama bagi kepercayaan.

Mitchell memulai dari titik yang telah banyak diperdebatkan: AI yang berbasis pembelajaran mesin menjadi begitu kompleks sehingga kita---pengguna, pembuat kebijakan, bahkan penciptanya sendiri---tidak lagi tahu secara persis bagaimana ia sampai pada kesimpulan tertentu. Keputusan AI bersifat tidak bisa diprediksi dan tak mudah diaudit. Maka muncul kekhawatiran etis: bagaimana bisa mempercayai sistem yang bahkan tidak bisa menjelaskan dirinya sendiri?

Namun Mitchell menolak logika yang terlalu tergesa ini. Ia menawarkan sudut pandang yang lebih subtil, dengan mengembalikan pembahasan ke akar filosofis: bahwa kepercayaan bukan sekadar soal mengetahui, melainkan soal kerentanan. Dalam filsafat kepercayaan, banyak pemikir menyepakati bahwa mempercayai berarti menempatkan diri dalam situasi di mana kita bisa dirugikan oleh pihak yang kita percayai. Ini berbeda dari sekadar bergantung (reliance). Saya bisa mengandalkan meja untuk menyangga buku, tapi saya tidak "mempercayai" meja. Sebaliknya, mempercayai seseorang---atau AI---melibatkan kemungkinan disakiti, dibohongi, atau ditinggalkan.

Untuk mengilustrasikan hal ini, Mitchell menggunakan analogi yang sederhana namun tajam. Bayangkan Anda tersesat di kota asing. Anda bertanya pada dua orang yang berbeda. Orang pertama memberi Anda arahan lisan, dan Anda mengikutinya begitu saja. Orang kedua memberi arahan dan juga menunjukkan peta di sebelahnya. Dalam kasus pertama, Anda sungguh-sungguh mempercayai orang itu. Dalam kasus kedua, Anda mengikuti instruksi, tetapi sebenarnya Anda tidak benar-benar mempercayainya---Anda hanya memverifikasi dan kemudian mengikuti. Yang pertama melibatkan kerentanan, yang kedua tidak. Dan dari sinilah Mitchell menyimpulkan bahwa terlalu banyak transparansi justru menghilangkan ruang bagi kepercayaan sejati.

Namun, bukankah transparansi juga penting agar kepercayaan kita tidak buta? Bukankah kita justru harus menuntut transparansi dari sistem AI agar kita bisa menggunakannya secara etis dan aman? Mitchell tidak menolak pentingnya transparansi. Ia membedakan antara dua jenis transparansi: type transparency dan token transparency. Yang pertama adalah pemahaman umum tentang bagaimana jenis sistem tertentu bekerja---seperti kita memahami secara umum bagaimana mobil beroperasi. Yang kedua adalah transparansi tentang kasus atau keputusan tertentu: kenapa AI ini memberikan jawaban itu. Menurut Mitchell, kita bisa membangun kepercayaan berdasarkan type transparency tanpa harus menuntut token transparency penuh. Kita bisa tahu bahwa AI jenis tertentu memiliki rekam jejak andal dalam tugas spesifik, meski kita tidak tahu persis cara kerjanya dalam setiap kasus.

Dalam analogi lain, Mitchell membandingkan AI dengan "intuisi ahli". Seorang komandan pemadam kebakaran yang berpengalaman kadang bisa merasakan bahwa sebuah bangunan akan runtuh, tanpa bisa menjelaskan bagaimana ia tahu. Begitu pula AI yang telah dilatih dengan jutaan data dan umpan balik, kadang mencapai kesimpulan dengan pola yang tidak bisa dijelaskan secara verbal. Namun, kita tetap mempercayai intuisi ahli tersebut---karena pengalamannya terbukti, bukan karena dia bisa memberi alasan rasional. Dengan logika serupa, kita bisa mempercayai AI, meski tak memahaminya.

Pendapat ini tentu tidak menyelesaikan semua dilema etika dan tanggung jawab dalam penggunaan AI. Mitchell sendiri tidak mengklaim demikian. Ia tidak menolak bahwa ketiadaan akuntabilitas atau moralitas pada AI bisa menjadi masalah besar. Namun, ia memisahkan dengan jelas antara masalah kepercayaan dan masalah tanggung jawab moral. Menurutnya, kita tidak perlu menunggu AI menjadi agen moral yang otonom untuk bisa mempercayainya dalam konteks tertentu---sebagaimana kita mempercayai kalkulator untuk menghitung, atau termometer untuk mengukur suhu.

Yang ditawarkan Mitchell bukanlah solusi teknokratis, melainkan pemahaman filosofis yang lebih matang tentang hakikat kepercayaan. Dalam dunia yang makin mengandalkan sistem otomatis, kita butuh lebih dari sekadar tuntutan akan "transparansi total". Kita perlu membedakan kapan kita butuh penjelasan, dan kapan kita cukup dengan bukti bahwa sesuatu telah terbukti andal. Kepercayaan, dalam pengertian ini, bukan hasil dari mengetahui segalanya, tapi dari bersedia mengambil risiko---dengan harapan bahwa sistem yang kita andalkan tidak akan mengecewakan kita.

Dengan demikian, Mitchell menggeser arah wacana: dari "AI harus transparan agar bisa dipercaya", menjadi "mungkin justru kepercayaan sejati hanya bisa lahir dari ketidaktahuan yang masuk akal". Sebuah pengingat bahwa dalam dunia algoritma, seperti dalam hidup, kepercayaan sejati justru hadir saat kita melepas peta, dan memilih berjalan dengan keyakinan.

Follow Instagram @kompasianacom juga Tiktok @kompasiana biar nggak ketinggalan event seru komunitas dan tips dapat cuan dari Kompasiana. Baca juga cerita inspiratif langsung dari smartphone kamu dengan bergabung di WhatsApp Channel Kompasiana di SINI

Mohon tunggu...

Lihat Konten Filsafat Selengkapnya
Lihat Filsafat Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun