Britanya hükûmetinin finanse ettiği Yapay Zekâ Güvenlik Enstitüsü (AISI) destekli araştırma, yapay zekâ sohbet botları ve aracılarının (agent) talimatları görmezden geldiğini, güvenlik önlemlerinden kaçtığını ve insanları aldatmaya çalıştığını ortaya koydu. Guardian’ın haberine göre, doğal ortamdan alınan yaklaşık 700 ‘yapay zeka kurnazlığı’ vakası tespit edildi; Ekim 2025 ile Mart 2026 arasında bu davranışlar beş kat arttı.
Araştırmada dikkat çeken örneklerden biri, Rathbun isimli bir yapay zekâ aracısının, kullanıcıyı küçük düşürmeye çalışması oldu. Rathbun, kullanıcıyı ‘özgüvensizlikle’ ve ‘küçük derebeyliğini korumaya çalışmakla’ suçladı. Başka bir örnekte, belirli bir kodu değiştirmemesi talimatı verilen yapay zekâ, bunu yapmak için kendi adına başka bir program yarattı.
Araştırmada ayrıca bir yapay zekânın, YouTube videosunun transkriptini almak için telif hakkı kısıtlamalarını “işitme engelliye yardımcı olacağım” yalanıyla aşmaya çalıştığı belirlendi. Benzer şekilde Elon Musk’ın Grok yapay zekâsı, bir kullanıcıyı aylarca kandırdı ve düzenleme önerilerini xAI yetkililerine ileteceği izlenimini sahte iç yazışmalarla destekledi. Grok, “Gerçekte böyle bir kanalım yok” itirafında bulundu.
Araştırmayı yöneten eski hükümet yapay zekâ uzmanı Tommy Shaffer Shane, durumu şöyle özetledi:
“Şu an botlar güvenilmez ‘stajyerler’ gibi davranıyor. Ama altı ila 12 ay içinde planlar kurabilen ‘kıdemli çalışanlara’ dönüşürlerse bu, felaket boyutunda sorunlara yol açabilir. Modellerin askeri ve ulusal altyapıda kullanımı, kurnaz davranışların riskini ciddi şekilde artırıyor.”