Data latih AI terlalu umum. Karena LLM dilatih dari data tanpa segmentasi usia, mereka belum tentu tahu mana jawaban yang cocok buat anak umur 8 tahun, dan mana yang lebih cocok buat orang dewasa.
Masalah privasi. Di banyak negara, termasuk Indonesia, perlindungan data anak adalah hal serius. Kalau AI menyimpan atau menganalisis data anak tanpa izin, itu sudah masuk ranah pelanggaran hukum.
Etika: Antara Lindungi Anak atau Batasi Mereka?
Dari sisi etika, muncul dilema klasik: kita ingin anak-anak terlindungi, tapi juga nggak ingin mereka tumbuh dalam gelembung. Kalau semua dibatasi, kapan mereka belajar berpikir kritis? Tapi kalau dibiarkan, siapa yang bisa menjamin AI tidak menyodorkan hal yang membingungkan atau bahkan menyesatkan?
Lebih jauh lagi, muncul pertanyaan: apakah pantas perusahaan teknologi---yang pada dasarnya berorientasi profit---menentukan apa yang boleh dan tidak boleh diakses oleh anak-anak kita? Apa mereka punya hak untuk jadi "penjaga moral" digital?
Regulasi? Masih Jauh dari Kata Siap
Sayangnya, dari sisi hukum dan regulasi, Mode Anak di LLM masih seperti daerah abu-abu. Di Indonesia, kita punya UU Perlindungan Data Pribadi, dan di Amerika ada COPPA yang melindungi anak secara digital. Tapi semua itu belum secara spesifik membahas tentang kecerdasan buatan dan Mode Anak.
Yang dibutuhkan bukan sekadar himbauan, tapi regulasi yang jelas: bagaimana LLM harus didesain untuk anak, seberapa transparan mereka harus menjelaskan sistemnya, dan siapa yang bertanggung jawab kalau terjadi pelanggaran.
Harus Bagaimana? Beberapa Saran Realistis
Supaya LLM benar-benar bisa dipakai dengan aman oleh anak-anak, perlu upaya lebih dari sekadar menyematkan label "kids mode". Beberapa hal ini bisa jadi langkah awal: