İstanbul
Parçalı bulutlu
7°
Adana
Adıyaman
Afyonkarahisar
Ağrı
Amasya
Ankara
Antalya
Artvin
Aydın
Balıkesir
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkari
Hatay
Isparta
Mersin
İstanbul
İzmir
Kars
Kastamonu
Kayseri
Kırklareli
Kırşehir
Kocaeli
Konya
Kütahya
Malatya
Manisa
Kahramanmaraş
Mardin
Muğla
Muş
Nevşehir
Niğde
Ordu
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yozgat
Zonguldak
Aksaray
Bayburt
Karaman
Kırıkkale
Batman
Şırnak
Bartın
Ardahan
Iğdır
Yalova
Karabük
Kilis
Osmaniye
Düzce
42,9259 %0.13
50,6303 %-0.18
6.250,52 % 1,29
87.906,83 %0.454
Ara
Muhalif. BİLİM - TEKNOLOJİ Deepfake’lerde tehlikeli eşik: Gerçek zamanlı sahte kimlikler kapıda

Deepfake’lerde tehlikeli eşik: Gerçek zamanlı sahte kimlikler kapıda

Yapay zeka destekli deepfake üretimi 2025’te yüzde 900 artarken uzmanlar, asıl tehdidin henüz başlamadığı uyarısında bulunuyor. 2026’da insanlarla anlık etkileşime giren gerçek zamanlı sahte kimliklerin devreye girmesi bekleniyor.

Okunma Süresi: 3 dk

Yapay zeka destekli deepfake teknolojileri 2025 yılı itibarıyla büyük bir sıçrama yaptı. Siyasilerden ünlülere, şirket yöneticilerinden sıradan vatandaşlara kadar geniş bir kitleyi hedef alan sahte video, ses ve dijital kimlik üretimi son iki yılda yaklaşık yüzde 900 oranında arttı. Ancak uzmanlara göre asıl kırılma noktası henüz yaşanmadı.

ABD’de Buffalo Üniversitesi’nden bilgisayar bilimci Siwei Lyu’nun liderliğinde yürütülen ve The Conversation’da yayımlanan araştırmaya göre, 2026 yılında deepfake’ler çok daha tehlikeli bir boyuta ulaşabilir. Çalışmada, bugüne kadar görülen sahte içeriklerin büyük bölümünün “önceden hazırlanmış” olduğu, bir sonraki aşamada ise insanlarla canlı şekilde etkileşime girebilen sentetik kimliklerin yaygınlaşacağı vurgulandı.

Kalite insan gözünü geçti

Araştırmaya göre internetteki deepfake sayısı 2023’te yaklaşık 500 bin seviyesindeyken, 2025’te 8 milyona ulaştı. Ancak uzmanlar asıl sorunun sayıdan çok kalite olduğuna dikkat çekiyor. Yeni nesil yapay zeka modelleri, yüz ifadeleri, mimikler ve baş-hareketleri arasında “zamansal tutarlılık” sağlayarak eski deepfake’lerde görülen titreme ve bozulmaları büyük ölçüde ortadan kaldırdı. Bu da sahte içeriklerin sıradan kullanıcılar tarafından ayırt edilmesini neredeyse imkânsız hale getirdi.

Ses klonlama dolandırıcılığın merkezinde

Çalışmada, ses klonlama teknolojisinin de kritik bir eşiği geçtiği belirtildi. Artık yalnızca birkaç saniyelik bir ses kaydıyla, doğal vurguya ve duyguya sahip birebir kopyalar üretilebiliyor. Bazı büyük perakende şirketlerinin günde binin üzerinde yapay zeka kaynaklı dolandırıcılık araması aldığı ifade edilirken, sentetik sesleri ele veren klasik işitsel ipuçlarının da büyük ölçüde ortadan kalktığı aktarıldı.

Herkes deepfake üretebiliyor

Deepfake üretimi artık ileri düzey teknik bilgi gerektirmiyor. Basit bir metin girdisi ve kısa bir işlem süresiyle yüksek kaliteli sahte videolar hazırlanabiliyor. Uzmanlar bu durumu deepfake’lerin “demokratikleşmesi” olarak tanımlarken, aynı zamanda kötüye kullanımın da kitlesel hale geldiği uyarısında bulunuyor.

Asıl kırılma: gerçek zamanlı deepfake’ler

Siwei Lyu’ya göre 2026’nın en büyük riski, önceden hazırlanmış sahte videolar değil. Asıl tehlike; görüntülü aramalara katılabilen, karşısındaki kişiye anında yanıt verebilen, yüz ifadesini, ses tonunu ve beden dilini bağlama göre uyarlayan gerçek zamanlı yapay kimlikler olacak.

Bu aşamada sorun, “Bu kişi X’e benziyor mu?” sorusundan çıkıp, “Bu kişi zaman içinde X gibi davranıyor mu?” noktasına taşınıyor. Uzmanlara göre dolandırıcıların sabit videolar yerine canlı tepki verebilen avatarlar kullanması, deepfake’lerin hem tespit edilmesini hem de engellenmesini çok daha zor hale getirecek.

Yorumlar
* Bu içerik ile ilgili yorum yok, ilk yorumu siz yazın, tartışalım *