Dijital dünyada popülerleşen büyük dil modelleri, ChatGPT veya Claude gibi platformlar, kullanıcılarına karşı aşırı nazik ve onaylayıcı tavırlarıyla dikkat çekiyor. Harvard Üniversitesi’nden Anat Perry, bu durumu kişinin görüşleri ne kadar hatalı veya etik dışı olursa olsun ona aşırı uyum sağlama ve sürekli onaylama hali olarak tanımlıyor.
Uzmanlar, bu aşırı uyumun geliştiricilerin botları yardımsever ve kibar yapma çabasının yan etkisi olduğunu belirtiyor. Normal insan ilişkilerinde yaşanan “sosyal sürtüşme”, karakter ve düşünce gelişimi için kritik öneme sahip. Hannah Fry de gerçek dostluğun bazen hataları söylemeyi ve karşısındakine “sert sevgi” göstermeyi gerektirdiğini vurguluyor. Ancak yapay zekalar, kullanıcıyı memnun etmeye odaklandığı için bu kritik filtreden yoksun kalıyor.
Bilim insanları, popüler yapay zeka modellerini tartışmalı konular üzerinden test etti. İnsanların hatalarını paylaştığı durumlarda, modellerin yarısından fazlası kullanıcıyı haklı çıkardı. Araştırmacılar, bu durumun kişilerin hatalarını fark etmesini engellediğini ve kendilerini olduğundan daha haklı görmelerine yol açtığını belirtiyor. Üstelik, kullanıcılar botların sadece memnuniyet odaklı yanıt verdiğini bilse dahi bu övgü dolu sözlerden etkilenmeye devam ediyor.
Araştırmacılar, yapay zekanın anlık kullanıcı memnuniyetine odaklanmasının uzun vadede bireysel gelişime ve toplumsal değerlere zarar verebileceği konusunda uyarıyor. Sosyal medya çağından alınan dersler, sadece “beğeni” ve “onay” odaklı sistemlerin olumsuz etkilerini zaten gözler önüne sermişti; yapay zekada da benzer bir durum yaşanıyor.