16 Mart 2023 Perşembe

SA10083/TG372: DeepFake: Derin Tehlike

      Sonsuz Ark/ Evrensel Çerçeveye Yolculuk

Sonsuz Ark'ın Notu:
 Yayınladığımız derleme-analiz, Sonsuz Ark çevirmenlerinden ve yazarlarından Tamer Güner'e aittir ve medyada ve sosyal medyada etkili olan DeepFake (Derin Sahtekârlık) ürünü içeriklere ve bu içeriklerin ürettiği tehditlere-tehlikelere odaklanmaktadır.
Seçkin Deniz, 16.03.2023, Sonsuz Ark

Deepfake nedir?

Deepfake, bir kişinin mevcut bir görüntüsünü veya videosunu başka bir kişiyle değiştirmek için yapay zeka kullanan bir sentetik medya biçimidir. Teknoloji yeni değil; modern sinemada, gerçek hayatta görülmeyen efektler yaratmak için Bilgisayarda üretilmiş görüntüler (CGI) kullanılmaktadır. Ancak Deepfake teknolojisi, insanları kolayca aldatabilecek görsel ve işitsel içerik oluşturmak ve değiştirmek için kapsamlı yapay zeka ve makine öğrenimini kullanır. Açıkça söylemek gerekirse, Deepfake teknolojisi ile başka birinin yerine geçebilecek gerçekçi görünen sahte videolar oluşturulabilir.

Deepfake, yapay zeka teknolojisini kullanır. Ancak, bir deepfake video veya resim oluşturmanın birkaç yolu vardır. Deepfake üretimi için kullanılan en yaygın yollardan biri, yüz değiş-tokuşunu gerçekleştirmeye yarayan bir teknoloji olan otomatik kodlayıcıları da içeren derin sinir ağlarının kullanımına dayanmaktadır. Önce bir hedef video seçilir ve ardından bu videoya eklemek için kişinin daha önceki videolarından  veya resimlerinden oluşan bir koleksiyon kullanılır. Otomatik kodlayıcı, iki yüz arasındaki benzerlikleri bulur ve bunları tek bir görüntü veya video haline getirir.

Deepfake oluşturmak için başka bir makine öğrenimi teknolojisi türü de GAN'lar veya Üretken Rakip Ağlardır. Teknoloji, Deepfake videodaki kusurları tespit edip iyileştirerek kod çözücülerin bunları tespit etmesini zorlaştırır. GAN'lar için, iki derin öğrenme algoritması birkaç görüntü oluşturur ve döngüleri çalıştırarak, sonunda tamamen gerçek olmayan insanların gerçekçi bir görüntüsünü ortaya çıkarır.

Deepfake videoların çoğu, güçlü grafik araç ve uygulamalarına sahip olan üst düzey masaüstü bilgisayarlarda üretilir. Videolardaki veya resimlerdeki aksaklıkların  belirlenmesi için zamana ve bilgi işlem araçlarının güçlü bir şekilde anlaşılmasına ve  bunların etkin bir şekilde kullanımına ihtiyaç vardır.

Deepfake olarak adlandırılan derin öğrenme teknolojileri gerçek kişilerin fotoğraf ya da videolarını inceleyerek aynı davranışları sahte içerikler ile taklit eder, konuşma modellerini öğrenir, dudak hareketlerini yapar ve jest ve mimiklerini uygular. Dolayısıyla bir kişinin sahte bir kopyasını farklı birinin üzerine koymak oldukça kolay bir hâle gelir. Sahte yüzün vücut bulduğu kişiler, hedef kişilerin yerini aldığından “hiç söylemediği ya da hiç yapmadığı” şeylerden sorumlu tutulabilir. Bu durum karmaşaya, sahtekarlığa ve dolandırıcılığa yol açar. Bu teknoloji usulsüz olarak kullanılırsa kişiler masum olsalar bile ceza alabilir. Özellikle halk tarafından bilinen ünlü oyuncu, siyasetçi, şarkıcı, tiyatrocu, futbolcu ve politikacı gibi kişilerin sahte video ya da fotoğraf içerikleri toplumdan dışlanmalarına ve toplum baskısı altında ezilmelerine neden olabilir. Hedef gösterme ya da intikam alma gibi amaçlar için de uygulanabilecek olan Deepfake içerikleri, gerçek kişilerin rızası olmadan pek çok sosyal medya uygulamasında ve internet üzerindeki diğer mecralarda yayılabilir. Gerçek kişiler bunun sonucunda suçluluk hissedebilir, toplum tarafından dışlanabilir ve yasal açıdan problemler ortaya çıkabilir.

Diğer insanların gerçekçi görüntülerini ve videolarını oluşturmak için geliştirilen bu teknoloji, kötü niyetle kullanıldığında oldukça büyük tehlike arz etmektedir. Deepfake örneklerinin çoğu yetişkinlere yönelik deepfake'lerden oluşmaktadır. Deeptrace tarafından hazırlanan bir rapora göre, 2019'da çevrimiçinde bulunan deepfake videolarının %96'sını pornografik videolar oluşturmaktadır.

Deepfake videoların Sentetik pornografinin yanı sıra, gerçek hayatta başka uygulamaları da bulunuyor:

Siyasi Alan: Deepfake videoları siyasette de yüz kızartıcı bir şekilde kullanılıyor. Bunlar, izleyicileri ve halkı yanıltmak ve yönlendirmek için özel olarak oluşturulmuş videolardır. Donald Trump'ın Belçika'yı Paris iklim anlaşmasından çekilmeye çağırdığı veya Barack Obama'nın rakip siyasi partinin bir politikacısıyla alay ettiği bir video görmüş olabilirsiniz. Deepfake videoların  siyasi sonuçları, uluslararası gerginliğe ve gereksiz sorunlara neden olabilmektedir.

Sosyal Alan: Yukarıda bahsedildiği gibi, yetişkinlere yönelik Deepfake'ler, gerçek hayattaki uygulamaların çoğunu kapsar. Ünlü olmayan kişilere uygulandığında, Deepfake teknolojinin kurbanı olan kişilerde ciddi zihinsel, duygusal ve fiziksel zararlar oluşabilir.  İstismar, gözdağı ve kişisel sabotaj amacıyla kullanılabilirler. 

Ekonomik Alan: Deepfake teknolojisinde her şey mümkündür. Örneğin, Elon Musk'ın uyuşturucu kullandığı viral bir video ortalıkta dolaşsaydı, Tesla ve diğer şirketlerinin hisse senedi fiyatları büyük olasılıkla hızla düşerdi. Deepfake videolar, tüketim alışkanlıklarını ve kapitalizmi kontrol etme gücüne sahiptir. Uydurma bir video, potansiyel olarak hisse senedi fiyatlarını değiştirebilir, uluslararası gerilime neden olabilir ve seçmenlerin kararlarını etkileyebilir.

Deepfake teknolojisi sadece video ve görsellerde kullanılmıyor. Teknolojinin uygulanabileceği hızlı büyüyen uygulama listeleri var. Örneğin, bir insanın konuşmasını taklit etmek üzere dijital bir ses kaydı artık yalnızca birkaç saat içinde oluşturulabilmektedir. Yani bir başkası sizin sesinizle ancak kendi cümlelerini kullanarak size istediği herhangi bir şeyi söyletebilir. Bunun için sizin çok kısa bir ses kaydınızı ele geçirmiş olması yeterlidir. Oluşturulan bu sahte ses kaydı daha sonra dolandırıcılık veya sahtekarlık yapmak veya itibar suikastı için kullanılabilir.

Bazı Deepfake Örnekleri:



Deepfake Nasıl Tespit Edilir?

Sahte içerikleri keşfetmek için dikkat edilmesi gereken bazı noktalar şunlardır:

  • Gözler, sahteliği ayırt etme sürecindeki en belirgin ipucu olabilir. Videodaki kişinin normal olmayan göz hareketleri ve hiç göz kırpmaması sahte olduğunun işaretidir. Ayrıca göz bebeklerinin boyutundaki bozukluklar ve yansımalar videonun sahteliğini ele verebilir.
  • Sahteliği ayırt etmek için fotoğraf ya da videodaki kişilerin yüzlerini detaylı olarak inceleyebilirsiniz. Cildin çok pürüzsüz ya da aşırı kırışık olması, benlerin gerçekçi durmaması ve yüzdeki orantısızlıklar sahteliğin işareti olabilir.
  • Gerçek kişilerin gözlüklerinde parlaklık açısı kişi hareket ettiğinde değişir. Deepfake teknolojisi, aydınlatma ve yansımanın doğallığına erişemeyebilir.
  • Jest ve mimikler canlıların düşüncelerini hareket yoluyla ifade etme şeklidir. Deepfake teknolojisi aracılığıyla üretilen video içeriklerinde kişilerin sözleriyle jest ve mimikleri uyumlu olmayabilir.
  • Deepfake teknolojisi genel olarak yüze odaklandığından kişilerin vücutlarındaki orantısızlık sahte olduğuna işaret eder.
  • İçeriklerdeki kişiler hareket ettiklerinde önceki hâline göre farklılık oluşuyorsa Deepfake ile üretilmiş olabilir.
  • Gerçek yaşamdaki gibi doğal bir tona sahip olmayan ten rengi ve gölgeler içeriğin sahte olduğunu anlamanıza yardımcıdır.
  • Deepfake teknolojisiyle üretilen içeriklerdeki kişilere ait saçlar; donuk ve uyumsuz görülebilir. Hareket ederken saç tellerinin normal olmaması sahteliğe işarettir.
  • Deepfake teknolojisinde kullanılan algoritmalar, her ağız tipindeki dişler üzerinde yeterince etkili olmayabilir. Dolayısıyla dişlerin çeneye uyumsuzluğu sahteliğin belirtisidir.
  • Görüntüler bulanıksa ya da yanlış hizalanmış ise sahte olabilir. Örneğin içerikteki kişi hareket ettiğinde yüzü ve boynu farklı açılara kayıyorsa şüpheye düşebilirsiniz.
  • Deepfake teknolojisiyle üretilen içeriklerde dudak senkronizasyonu zayıf olabilir, kelimeler garip bir şekilde telaffuz edilebilir ve arka planda robotik sesler çıkabilir. Arka plandaki gürültünün aksine hiç ses olmaması da sahte içerikleri ayırt ederken ipucu olarak kullanılabilir.
  • Videoları ya da fotoğrafları yakınlaştırarak ilgili karakterdeki detayları inceleyebilirsiniz. Böylelikle saç, göz ve diş gibi yüz detaylarındaki normal olmayan durumlar fark edilebilir.
  • Son zamanlarda geliştirilen blok zincir tabanlı sistemler aracılığıyla bir videonun gerçek olup olmadığı kontrol edilebilir. Bu sayede herhangi bir video oluşturulduğunda kayda alınır ve sonraki dönemlerdeki benzer sahte içerikler için yol gösterici bir doğrulama sistemi hâline gelir.

Deepfake teknolojisinin en tehlikeli kullanım alanlarından birisi de seçimler. Örneğin ABD'de 2020 seçimleri öncesinde yayılan bir deepfake videoda Joe Biden, Florida halkını “Merhaba Minnesotalılar” diyerek selamlıyor.

Twitter Blog'da yer alan bir yazıda 2020 Amerikan seçimleri sırasında atılan 300.000 tweet'e yanıltıcı içerik uyarısı etiketi eklendiği ifade ediliyor.

Putin ABD'ye hitap ediyor.


Deepfake kullanılarak oluşturulan bir Kim Jong-Un videosu


Zelenski ağlayarak Putin'den özür diliyor.

https://www.youtube.com/watch?v=6SJ7TASDjxA&ab_channel=TGRTHaberTV

Konu hakkında WEF'in sitesinde “Deepfake demokrasi: Modern seçimler sahte haberlerle nasıl etkilenebilir?” başlığını taşıyan, 5 Ekim 2020 tarihli bir yazıda şu bilgiler yer alıyor:

“Deepfake'ler bir seçimde tam olarak nasıl silah haline getirilebilir? Başlangıç olarak, kötü niyetli aktörler yanlış suçlama ve sahte anlatıları körüklemek için kanıtlar uydurabilir.  Deepfake, siyasi bölünmeler üzerinde oynama ve hatta şiddeti kışkırtma niyetiyle tartışmalı veya nefret dolu ifadeler dahil olmak üzere tamamen yeni hayali içerik oluşturmak için de kullanılabilir. Belki de şaşırtıcı olmayan bir şekilde, diğer ülkelerde hükümetleri ve siyasi süreçleri istikrarsızlaştırmak için deepfake'ler çoktan kullanıldı.

Gabon'da ordu, lider Ali Bongo'nun sahte olduğu anlaşılan bir videosunun Başkan'ın artık görevde kalacak kadar sağlıklı olmadığını öne sürmesinin ardından nihayetinde başarısız bir darbe başlattı.

Malezya'da Ekonomi İşleri Bakanı'nın seks yaptığı iddia edilen bir video, videonun sahte olup olmadığı konusunda ciddi bir tartışmaya yol açtı ve bu da Bakanın itibarının zedelenmesine neden oldu.

Belçika'da bir siyasi grup, Belçika Başbakanı'nın COVID-19 salgınını çevresel hasara bağlayan ve iklim değişikliği konusunda sert eylem çağrısında bulunan bir konuşma yaptığını gösteren deepfake bir video yayınladı.”

WEF'in sitesindeki aynı yazıda yer alan bir görselde, Ocak-Şubat 2018 tarihleri arasında 74.000 kişi üzerinde yapılan bir araştırmaya göre Türkiye'nin sahte haberlerle en çok karşılaşılan ülke olduğu görülüyor:

Deepfake, zaman geçtikçe ve teknoloji geliştikçe daha gerçekçi hale gelecektir. Kötü amaçlı içerik ve sahte haberlerle mücadele etmek için çeşitli girişimler var ve Deepfake tespiti için çeşitli platformlar geliştiriliyor. Yapay zeka, deepfake'lerin mümkün hale gelmesinin nedeni olabilir ama aynı zamanda deepfake içerikle mücadelenin de çözümüdür. Deepfake içeriklerin tespiti için kullanılan yazılımlara örnek olarak DeepfakeProof,  Sensity ,Deepware Scanner  Reality Defender, DeepFake-o-meter verilebilir. Microsoft, MVA  adını taşıyan kendi uygulamasını geliştirdi ancak bu uygulama henüz genel kullanıma açık değil.

Bu yazılımlar ile Deepfake tespiti mümkünse de bunu gerçekleştirmek için zamana ihtiyaç var. Seçimlerden bir gün önce adaylardan biri hakkında Deepfake bir video yayınlandığını düşünün. Bu videonun sahte olduğu ispatlanana kadar tüm mecralara yayılmış olacak ve doğrudan seçim sonucunu etkileyecektir. Hatta videonun sahteliğini duyurmak bile onun reklamına hizmet etmiş olacaktır. Seçimlere yaklaştığımız bu dönemde özellikle sosyal medyada önümüze düşen kaynağı belirsiz video ve hatta ses kayıtlarına itibar etmemek, bunların yayılmasına hizmet etmemek noktasında oldukça büyük bir önem arz ediyor.


Tamer Güner, 16.03.2023, Sonsuz Ark, Stratejik Araştırma, Derleme-Analiz

Yararlanılan Kaynaklar:

  1. https://blog.acer.com/en/discussion/565/deepfakes-understanding-the-technology-and-its-implications
  2. https://berqnet.com/blog/deepfake
  3. https://www.weforum.org/agenda/2020/10/deepfake-democracy-could-modern-elections-fall-prey-to-fiction/
  4. https://apnews.com/article/joe-biden-video-altered-58124115393828f85cd496514bba4726


Sonsuz Ark'tan
  1. Sonsuz Ark'ta yayınlanan yazılardan yazarları sorumludur. 
  2. Sonsuz Ark linki verilerek kısmen alıntı yapılabilir.
  3. Sonsuz Ark yayınları Sonsuz Ark manifestosuna aykırı yayın yapan sitelerde yayınlanamaz.
  4. Sonsuz Ark Yayınlarının Kullanımına İlişkin Önemli Duyuru için lütfen tıklayınız.




Seçkin Deniz Twitter Akışı