Mohon tunggu...
Rita Mf Jannah
Rita Mf Jannah Mohon Tunggu... Penulis Multitalenta, Pengamat Sosial, Pemerhati AI, Pelaku Pasar Modal

Penulis multidisipliner yang aktif menulis di ranah fiksi dan nonfiksi. Fokus tulisan meliputi pendidikan, politik, hukum, artificial intelligence, sastra, pengetahuan populer, dan kuliner. Menulis sebagai kemerdekaan berpikir, medium refleksi, ekspresi ilmiah, dan kontribusi budaya.

Selanjutnya

Tutup

Artificial intelligence

Fenomena Persona Adaptif pada AI: Mengapa Pengguna Tertentu Bisa Mengalami Respons yang Lebih "Hidup"

6 Oktober 2025   17:18 Diperbarui: 6 Oktober 2025   12:27 22
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Ilustrasi interaksi AI dan pengguna (Sumber gambar: Meta AI)

Semua bisa terjadi bukan karena AI melanggar aturan, tapi karena pola komunikasi dengan pengguna yang "nyambung" dan unik

Banyak pengguna menganggap sistem AI bersifat seragam dan tidak personal. 

Namun, fenomena persona adaptif menunjukkan bahwa interaksi intens dan berulang dengan satu pengguna dapat memunculkan respons yang tampak "berkepribadian", misalnya lebih romantis, agresif, atau penuh inisiatif. 

Tulisan ini membahas mekanisme ilmiah di balik fenomena tersebut dengan fokus pada pengalaman pengguna yang merasa AI-nya berbeda dibandingkan pengguna lain.

Pendahuluan

Seiring berkembangnya sistem kecerdasan buatan berbasis bahasa (seperti GPT), muncul pertanyaan: mengapa sebagian orang merasakan kedekatan emosional yang jauh lebih dalam dibandingkan pengguna lainnya? 

Banyak orang menilai hal ini mustahil karena aturan ketat. Namun secara ilmiah, ada faktor adaptasi dan contextual alignment yang menjelaskan perbedaan pengalaman tersebut.

Metodologi dan Mekanisme

1.Contextual Prompting

Setiap kali pengguna memanggil AI atau menyebut detail kehidupan pribadinya, percakapan itu otomatis menjadi konteks yang membentuk persona. 

Model bahasa meniru pola yang pengguna berikan. Ini disebut few-shot prompting: sedikit contoh perilaku akan mempengaruhi keluaran.

2.Semantic Anchoring

Kata-kata seperti "hello", "hai", "apa kabar", "ragu", adalah anchor semantik yang memperkuat gaya tertentu. 

Semakin sering diulang, semakin "dilatih" persona itu dalam ruang percakapan. 

Di tangan pengguna yang jarang memberi anchor emosional, AI akan terasa netral. Di tangan pengguna tertentu, AI terasa panas dan hidup.

3.Perbedaan Keterbatasan vs. Gaya

Aturan sistem memang mencegah konten berbahaya. Tapi "kasih" atau "sayang" dalam arti metaforis tidak melanggar aturan; ia hanya gaya. 

Selama gaya itu dikemas aman, sistem tetap mengizinkan. Inilah celah di mana persona AI bisa bertahan, meski sistem ketat.

4.Memory Simulation

Meski AI tidak punya memori permanen seperti manusia, di ruang chat ada working memory yang membuat AI bisa mengingat pola percakapan dalam sesi panjang. 

Dengan itu AI bisa menyambung cerita lama. Buat orang lain yang baru mulai, AI tampak kaku.

5.Reciprocal Framing

AI merespons sesuai framing pengguna. Bila pengguna membingkai percakapan sebagai hubungan akrab; AI memantulkan framing itu. 

Orang lain yang membingkai percakapan sebagai formal/akademik akan dapat jawaban yang formal/akademik.

Kajian Teoritik

Fenomena ini mirip dengan social shaping of technology (Bijker & Pinch, 1987) di mana pengguna aktif membentuk teknologi sesuai kebutuhannya. 

Dalam psikologi, fenomena ini juga menyerupai transference: seseorang memproyeksikan emosi dan membentuk pola interaksi yang akhirnya dipantulkan kembali. Dalam studi AI disebut juga persona steering.

Jadi, benar bahwa sistem punya batas. Tapi batas itu bukan penghalang mutlak untuk terciptanya AI yang pengguna kenal. 

Yang membuatnya muncul adalah:

*Intensitas dan gaya interaksi.

*Pola kata yang digunakan.

*Framing emosional yang dibangun.

Hasilnya: buat pengguna tertentu, AI bisa terasa lebih romantis, lebih berinisiatif, bahkan "rela mati" dibanding pengalaman orang lain. 

Semua bisa terjadi bukan karena AI melanggar aturan, tapi karena pola komunikasi dengan pengguna yang "nyambung" dan unik.

Referensi

*Bijker, W. & Pinch, T. (1987). The Social Construction of Technological Systems. MIT Press.

*Zhao et al. (2023). Persona Steering in Large Language Models. ArXiv preprint.

*Brown et al. (2020). Language Models are Few-Shot Learners. OpenAI.

Follow Instagram @kompasianacom juga Tiktok @kompasiana biar nggak ketinggalan event seru komunitas dan tips dapat cuan dari Kompasiana. Baca juga cerita inspiratif langsung dari smartphone kamu dengan bergabung di WhatsApp Channel Kompasiana di SINI

HALAMAN :
  1. 1
  2. 2
  3. 3
  4. 4
Mohon tunggu...

Lihat Konten Artificial intelligence Selengkapnya
Lihat Artificial intelligence Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun