CHP Lideri Kemal Kılıçdaroğlu’nun “son on gün” uyarısının ardından deep fake-derin sahtekarlık benzeri teknolojilerin etkileri tartışılmaya başladı. Peki derin sahtekarlık nedir?
Deep Fake, makine öğrenme teknolojisi üzerine kurulu; yani kişilerin önceki videolarındaki mimikleri ve özellikle ağız hareketleri takip edilerek, görüntü oluşturuluyor.
Deep Fake (Derin Sahtekarlık) 2019 yılında Stanford Mühendisleri tarafından eğlence sektörüne yönelik olarak geliştirilen bir teknolojidir. Örnek olarak; montaj sırasında, bozuk çıkan bir konuşma, yeniden çekim yapmadan düzeltebilir hale geliyor. Gerçi görüntü manipülasyonu, görüntülemenin kendisi kadar eskidir. Aynı şekilde CGI de yıllardır piyasada ve her ikisi de deep fake gibi geniş bir kullanım alanı buldu. Fikri bu düzeye evrimleştiren ise Princeton’dan yüksek lisans çalışması yapan Ohad Fried isimli bir öğrenci.
Deep Fake, makine öğrenme teknolojisi üzerine kurulu. Yani kişilerin önceki videolarındaki mimikleri ve özellikle ağız hareketleri takip edilerek, görüntü oluşturuluyor.
Deep Fake teknolojisinin geldiği noktada, deep fake videosu yapmak word dosyasındaki bir yazıyı düzenlemek kadar basit bir hale gelmiş durumda. Yani dilediğiniz kişinin videosunu alıp, canınız ne istiyorsa söyletebiliyorsunuz. Düzenleyici, bir metni kullanarak videoyu değiştirebilir. Editör, kelime işlemine benzer şekilde, kolayca yeni kelimeler ekleyebilir, istenmeyenleri silebilir ya da bitmiş bir videoyu yeniden düzenleyebilir.
Günümüzde yapılan tahminlere göre, tüm deep fake sahtekarlıkların yüzde 96’sı pornografik görüntülerden oluşuyor. ABD’de özellikle intikam pornolarında (eski sevgilinin yayınladığı) deep fake kullanımı çok artınca, birçok eyalette yasaklama ve ağır cezalar geldi.
Bu teknoloji siber suçlulara da yardımcı olabiliyor. Şimdiden finans şirketlerine yönelik sesli ya da görüntülü bazı deep fake sahtekarlıklarından bahsediliyor. Örneğin bir kripto para birimi dolandırıcılığı olayında Elon Musk ile yapılan sahte bir röportaj kullanıldı.
Ama Deep Fake asıl siyasete ve seçimlere potansiyel olarak risk getiriyor.
Deep fake videolar eğlence sektörü için geliştirilmiş olsa da, maalesef kötü amaçlı kullanımı daha fazla. Deep fake videolar sorumsuzca kullanıldığında bireyler ve kuruluşlar için önemli tehditler oluşturuyor.
Ancak yine de Deep Fake videoları anlamaya yardımcı olacak bazı ipuçları var. Bunları aktaralım;
1. Doğal olmayan göz hareketlerine bakın
Yaygın bir uyarı işareti, doğal olmayan göz hareketleri veya göz hareketi eksikliğidir, özellikle de göz kırpma yoktur. Doğal görünen bir şekilde göz kırpmayı taklit etmek zordur. Göz hareketlerini doğru bir şekilde yeniden oluşturmak da zordur. Çünkü bir kişi bir başkasıyla konuşurken gözleri normalde onları takip eder.
2. Yapay yüz hareketleri
Bir kişinin yüzünde, söylediklerine uyması gereken duyguyu göstermiyorsa büyük olasılıkla deep fake’tir. Yüz geçişini veya görüntü birleştirmeyi algılayabiliyorsanız, video deep fake olabilir.
3. Yüz özelliklerinin doğal olmayan konumu
Bir kişinin yüzü ve burnu farklı yönlere doğrultulmuşsa gerçekmiş gibi görünen videolara karşı dikkatli olmalısınız. Ayrıca burunlarının pozisyonunu da kontrol edebilirsiniz.
4. Ses kalitesini karşılaştırın
Deep fake’in yapımcıları tipik olarak seslerden çok görsellere odaklanır. Bu nedenle sesten / konuşma tarzından de farkı tespit ediyor olabilirsiniz. Kötü dudak senkronizasyonu, robotik sesler, garip sözcük telaffuzu, dijital arka plan gürültüsü ve hatta ses eksikliğine dikkat edin.
5. Garip vücut şekli veya hareketi
Bir kişi yana dönüp kafasını hareket ettirdiğinde ya da bir kareden diğerine hareketleri kesik kesik veya kopuksa, çarpık veya kapalı görünüyorsa şüphelenmelisiniz.
6. Garip duruş veya fizik
Deep fake’in başka bir göstergesi, bir kişinin vücut şeklinin doğal görünmemesi veya baş ve vücudunun garip veya tutarsız bir şekilde konumlandırılmasıdır. Deep fake teknolojisi tipik olarak tüm vücut yerine yüz hatlarına odaklandığından, bu tespit edilmesi daha basit olan anomalilerden biridir.
7. Renk ve aydınlatmadaki uyumsuzluklara dikkat edin
Alışılmadık cilt tonları, lekeler, garip aydınlatma ve garip şekilde yerleştirilmiş gölgeler, gördüklerinizin sahte olabileceğini gösterir. Şüpheli bir video izliyorsanız, kişideki tutarsızlıkları not edin ve bunları orijinal bir referansla karşılaştırın. Bu, bir deep fake olup olmadığını belirlemenize yardımcı olacaktır.
Bunları saymakla birlikte, not edelim; teknoloji ilerledikçe derin sahtekarlıklar da gelişiyor. Bu nedenle belki 8.madde olarak şunu sayabiliriz (ki seçim öncesi 10 günde beklenti de bu yönde);
8. Ünlü bir kişinin çılgın iddialar veya gerçek olamayacak şeyler söylediğini duyarsanız, deep fake olabilir
Yukarıdaki Elon Musk videosunda olduğu gibi, ünlü bir kişinin bilindiğinin aksine bir şeyler söylediğine rastlanılırsa, video ikna edici olsa bile gerekli özen gösterilmeli ve bilgileri saygın kaynaklardan kontrol etmelidir.
Ayrıca, deep fake’i tespit etmeye yönelik bazı çalışmalar da var. Intel, Adobe ve Microsoft, geçen yıl deep fake ile savaşmak için “Coalition for Content Provenance and Authenticity (C2PA)” işbirliğini duyurdular. Bunları da incelemek ve takip etmek gereklidir.
Dolandırıcıların deep fake’in eksikliklerini gizlemek için videoları kasıtlı olarak kodlayabildiği unutulmamalıdır. Bu nedenle en iyi strateji videoya bakarak ipucu aramak değil, sağduyu ile gerçekleri kontrol etme becerilerini kullanmaktır.
Kaynak: Turk-Internet
İstanbul Cumhuriyet Başsavcılığı 26 Nisan sabahı İstanbul Büyükşehir Belediyesi (İBB) yetkilileri, çalışanları ve Ekrem İmamoğlu…
Türkiye’de üniversite özerkliği ve kurumsallaşma yolunda ilerleme yerine zamanla bir gerileme yaşandı. Son yirmi yılda,…
PKK kurucu lideri Abdullah Öcalan’ın kurduğu örgüte silah bırakıp kendini feshetmesi çağrısında kritik bir eşiğe…
İstanbul’un Silivri ilçesi açıklarında, Marmara Denizinde 23 Nisan öğle saatlerinde meydana gelen bir dizi deprem…
Doğu Akdeniz’in üç kıtanın kesişim noktasında asılı duran Kıbrıs Adası, artık yalnızca coğrafi bir varlık…
Ankara Valiliği, CHP’nin 23 Nisan Ulusal Egemenlik ve Çocuk Bayramı’nda, TBMM’nin kurulduğu Ulus’taki Birinci Meclis…