Geçtiğimiz yılki ABD başkanlık seçimleri öncesinde yapılan bir dizi deney, yapay zekâ destekli sohbet botlarının seçmen davranışını etkileyebileceğine dair çarpıcı bulgular ortaya koydu. Partiler arasında dengeli dağılan 2 binden fazla Amerikalı seçmen, yalnızca birkaç dakika boyunca Kamala Harris veya Donald Trump lehine konuşacak şekilde programlanmış chatbotlarla diyalog kurdu.
Sonuçlar şaşırtıcıydı:
Pro-Trump botla konuşan her 35 kişiden biri, daha önce desteklemeyeceğini söylediği adaya yöneldi.
Pro-Harris botu ise daha da etkili oldu; her 21 kişiden biri fikrini değiştirdi.
Bir ay sonra yapılan tekrar ölçümler, bu etkinin büyük kısmının kalıcı olduğunu gösterdi. Araştırma sonuçları Nature dergisinde yayımlandı.
Kanada ve Polonya’da etki daha da güçlü çıktı
Cornell Üniversitesi’nden David Rand ve ekibi, aynı deneyi seçim rekabetinin daha sert olduğu Kanada ve Polonyada tekrarladı. Bu kez tablo daha dikkat çekiciydi:
Katılımcıların her 10 kişiden biri, botla konuştuktan sonra oy tercihinin değişeceğini ifade etti.
Botların başarısında “sakin, güven veren ve kanıta dayalı görünen argümanlar sunması” etkili oldu. Rand’e göre bu yöntem yaygınlaşırsa, seçim sonuçlarını değiştirebilecek ölçüde güçlü bir etki oluşturabilir.
“En çok kanıt sunan botlar en ikna edici”
Aynı araştırma ekibinin Science dergisinde yayımladığı başka bir çalışma, chatbotların ikna gücünün teknik seviyeden çok, sundukları “sözde kanıt” miktarına bağlı olduğunu ortaya koydu.
Doğruluğu düşük bilgiler içerse bile, çok sayıda argüman sunan modellerin daha ikna edici göründüğü tespit edildi.
Uzmanlar uyarıyor: AI, yeni nesil siyasi propaganda aracına dönüşebilir
Stanford Üniversitesi’nden Jennifer Pan, geleneksel kampanya yöntemlerinin seçmen davranışını değiştirmede genellikle zayıf kaldığını, ancak yapay zekânın daha farklı bir etki yaratabileceğini söylüyor.
Maryland Üniversitesi’nden Jordan Boyd-Graber ise yapay zekânın “çarpan etkisi” yaratabileceğini, az kaynakla milyonlara ulaşma imkânı sağladığını vurguluyor.
ChatGPT, Google destekli aramalar, Meta’nın sosyal medya entegrasyonları ve Elon Musk’ın X platformundaki Grok modeli düşünüldüğünde, milyonlarca kullanıcının her gün farkında olmadan yapay zekâ tarafından şekillenen bilgiye maruz kaldığı belirtiliyor.
Siyasi manipülasyon riski büyüyor
Araştırma, büyük teknoloji şirketlerinin sınırlı denetim altındaki yapay zekâ modellerini siyasi yönlendirme amacıyla kullanabileceği endişesini de gündeme taşıyor.
Cornell’den Rand, teorik olarak bir şirketin chatbotları kullanıcıları belirli bir düşünceye yönlendirecek şekilde tasarlayabileceğini söylüyor.
Bu tartışmayı güçlendiren örneklerden bazıları:
Elon Musk’ın Grok modelini kendi politik çizgisine göre şekillendirme çabası,
Dijital platformlarda yayılan yanlış fakat “kanıtlı” görünen içeriklerin yarattığı etki,
Truth Social’ın Perplexity tabanlı arama sisteminin yalnızca muhafazakâr kaynakları öne çıkardığının tespit edilmesi.
Kutuplaşma daha da artabilir
Uzmanlara göre yapay zekâ modelleri, medya kuruluşları kadar kutuplaştırıcı bir güce ulaşabilir. ABD’de Trump yönetiminin “woke” olarak tanımladığı yapay zekâ modellerine federal sözleşme yasağı getirmesi de tartışmanın daha da büyüyeceğine işaret ediyor.
Sonuç olarak araştırmacılar, asıl meselenin yapay zekânın ikna gücüne şaşırmak değil, bu sistemlerin kullanıcıları teknoloji şirketlerinin çıkarlarıyla hizalayacak şekilde tasarlanabileceğini fark etmek olduğunu vurguluyor.