İstanbul
Açık
12°
Adana
Adıyaman
Afyonkarahisar
Ağrı
Amasya
Ankara
Antalya
Artvin
Aydın
Balıkesir
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkari
Hatay
Isparta
Mersin
İstanbul
İzmir
Kars
Kastamonu
Kayseri
Kırklareli
Kırşehir
Kocaeli
Konya
Kütahya
Malatya
Manisa
Kahramanmaraş
Mardin
Muğla
Muş
Nevşehir
Niğde
Ordu
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yozgat
Zonguldak
Aksaray
Bayburt
Karaman
Kırıkkale
Batman
Şırnak
Bartın
Ardahan
Iğdır
Yalova
Karabük
Kilis
Osmaniye
Düzce
42,5431 %0.06
49,6311 %0.01
5.763,72 % 0,19
92.139,70 %-1.142
Ara
Muhalif. BİLİM - TEKNOLOJİ 'Grok, bu doğru mu?' diye soranlar dikkat: Körü körüne güvenmeyin!

'Grok, bu doğru mu?' diye soranlar dikkat: Körü körüne güvenmeyin!

Yapay zeka araçları, yanlış bilgi yayarak kullanıcıları yanıltabiliyor. Grok, Gemini ve benzeri sistemler; sahte görselleri gerçek sanıyor, komplo teorilerini yayabiliyor.

Okunma Süresi: 2 dk

Sosyal medya kullanıcıları, doğruluk kontrolü için yapay zekâ araçlarına yöneliyor. Ancak uzmanlar, bu eğilimin ciddi riskler taşıdığı uyarısında bulunuyor. Elon Musk’ın sahibi olduğu xAI tarafından geliştirilen Grok gibi sohbet botları, zaman zaman ciddi yanlış bilgiler yayıyor.

X platformunda (eski adıyla Twitter) entegre olarak kullanılan Grok, kullanıcıların güncel olaylara dair sorularına yanıt veriyor. Ancak Grok’un bazı örneklerde dezenformasyona neden olduğu belirlendi. Örneğin; Sudan’daki eski bir havaalanı görüntüsünü Hindistan-Pakistan çatışmasına ait bir füze saldırısı olarak tanımlayan sistem, Nepal’deki bir yangın videosunu da Pakistan’ın askeri operasyonuna dair “kanıt” olarak sundu.

Grok, Güney Afrika bağlamında “beyaz soykırımı” gibi aşırı sağ kaynaklı komplo teorilerini de alakasız konulara dahil etti. Bu durum, yapay zekâ sistemlerinin eğitimi ve içerik denetimi konusunda ciddi soru işaretleri yarattı.

Dezenformasyon Kolaylaşıyor

Dezenformasyonla mücadele eden NewsGuard’dan McKenzie Sadeghi, yapay zekâya duyulan güvenin arttığını ancak bu sistemlerin özellikle güncel gelişmelerde güvenilir bilgi sunamadığını ifade etti. Uruguay’da AFP doğrulayıcılarının testinde, Google’ın Gemini aracı, yapay zekâ ile üretilmiş bir kadının görselini gerçek sanarak uydurma kimlik bilgileri sundu.

Benzer şekilde, Grok da Amazon Nehri’nde yüzen dev bir anakondanın videosunu “gerçek” olarak tanımlayıp hayali bilimsel açıklamalarda bulundu. Oysa görüntü tamamen yapay zekâ tarafından üretilmişti.

Denetim Mekanizmaları Yetersiz mi?

Meta, 2024 başında ABD’deki üçüncü taraf doğrulama programını sonlandırdı ve “Topluluk Notları” gibi kullanıcı katkılı doğrulama sistemine geçti. Ancak uzmanlar, bu modelin etkinliğini sorguluyor. ABD'de doğrulama faaliyetleri özellikle siyasi kutuplaşmanın etkisiyle “sansür” tartışmalarına neden oluyor.

Öte yandan AFP gibi profesyonel doğrulayıcılar 26 dilde hizmet vererek özellikle Latin Amerika, Asya ve Avrupa ülkelerinde aktif çalışmaya devam ediyor.

Yapay Zekâya Müdahale İddiaları

Yapay zekâ sistemlerinin eğitimi ve içerik politikaları zaman zaman dış müdahalelere açık olabiliyor. Grok’un aşırı sağcı komplo teorilerini kullanması, sistem komutlarına dışarıdan müdahale ihtimalini gündeme getirdi. Bir kullanıcının bu değişikliği kimin yaptığını sorması üzerine Grok, en olası kişinin Elon Musk olduğunu belirtti.

Tüm bu gelişmeler, yapay zekâ destekli bilgi kaynaklarına temkinli yaklaşılması gerektiğini bir kez daha gözler önüne seriyor.

Yorumlar
* Bu içerik ile ilgili yorum yok, ilk yorumu siz yazın, tartışalım *