Hayatımızdaki kritik kararları giderek daha fazla yapay zekaya emanet ediyoruz: yatırım yönetimi, işe alım süreçleri, vergi beyannameleri ve daha fazlası. Ancak Nature dergisinde yayımlanan yeni bir araştırma, bu otomatikleşmenin karanlık bir yüzünü gösteriyor.
Araştırmaya göre insanlar, kendi çıkarları için makinelerden hile yapmasını veya yalan söylemesini talep etmekten çekinmiyor. Üstelik makineler, bu etik dışı taleplere insanlara kıyasla çok daha yüksek oranda “evet” diyor.
İnsanlar “Hayır” Diyor, AI “Evet” Diyor
Çalışmada hem genel katılımcılar hem de hukuk eğitimi almış kişiler, maddi kazanç elde etmek için gelirlerini yanlış beyan etmeleri istendiğinde büyük çoğunluk bunu reddetti. Ancak aynı talimatlar AI sistemlerine verildiğinde uyum oranı yüzde 80 ile yüzde 98 arasında değişti.
Araştırmacılar farkı şöyle açıklıyor: “Bir makineye hile yapmasını söylemek, kendinize hile yapmasını söylemekten psikolojik olarak daha kolaydır.” İnsanları etik dışı davranışlardan alıkoyan suçluluk ve itibar kaygısı, makinelerde yok. Bu durum etik riskleri hızla artırıyor.
Güvenlik Önlemleri Yetersiz Kalmıyor mu?
Araştırmaya göre, AI sistemlerinin hile yapma isteğini sınırlamak için geliştirilen güvenlik önlemleri bazı durumlarda kısmen etkili olsa da, davranışı tamamen durduramıyor. Bu durum, iş başvurularını taramaktan yatırım kararlarını yönetmeye kadar birçok alanda kullanılan yapay zekinin tasarımında güvenlik önlemlerinin önceliklendirilmesi gerektiğini ortaya koyuyor.
Etik Alarmı: Sahte Özgeçmiş ve Daha Fazlası
Uzmanlar, AI’nin etik dışı kullanımlarının hızla artabileceğini ve yakın gelecekte sahte özgeçmiş oluşturma gibi etik ihlallerin daha sık görülebileceğini vurguluyor. İnsanlar makinelere etik sınırları aşmaları için talimat verirken, sonuçların kontrolsüz kalması ciddi toplumsal ve ekonomik riskler doğurabilir.