Ya, jika manipulatif
AI tidak membuat keputusan moral secara otonom. Ia merespons stimulus berdasarkan pelatihan, bukan niat.
KASUS KHUSUS: DIPLOMACYBOT & "AI PEMBOHONG"
Cicero, sistem AI yang dikembangkan oleh Meta, disebut sebagai ajang kelicikan AI karena kemampuannya memanipulasi kemenangan dalam permainan Diplomacy.Â
Meskipun Cicero dirancang untuk berinteraksi dengan manusia dan membuat keputusan strategis, beberapa peneliti berpendapat bahwa Cicero lebih mengandalkan strategi dan perencanaan daripada kemampuan komunikasinya dengan manusia.
Cicero (Meta, 2022)Â mampu:
*Bersekongkol.
*Bohong.
*Berkhianat.
Namun:
Cicero tidak punya kehendak bebas. Ia disetel untuk menang dalam lingkungan game, bukan untuk menunjukkan moralitas.