Korkulu rüya: Deepfake (herkesin başına her an gelebilir)

GERÇEK VE SAHTE ARASINDAKİ GÖRÜNTÜ BULANIKLAŞTI: DERİN SAHTE (DEEPFAKE)

  • Yapay zekâ, öğrenen makineler, algoritmalar vb. teknolojiyi şaşırtıcı seviyelere taşıdı
  • Bugün öyle bir noktadayız ki doğrulaması yapılsa bile bir videonun ilgili kişiye ait olup olamadığını çözemeyebilirsiniz
  • Açık kaynak kodlu “basit” uygulamalar, birkaç saat içerisinde manipülasyon yapmaya olanak sağlıyor
  • Herhangi bir içeriğin internette yer alması doğru olduğu anlamına gelmiyor
  • “Deepfake” kullanılarak içerik üretmek ne kadar kolaysa bunun internet üzerinden temizlenmesi bir o kadar zor

Makine öğrenme algoritmalarını kullanarak insanların yüzünü ve sesini değiştirebilen teknoloji son birkaç yılın en büyük manipülasyon aracına dönüşmüş durumda. Bu yazılım diğer teknolojik alanlarda olduğu gibi çok süratli bir şekilde ilerliyor, gelişiyor, kullanımı kolaylaşıyor.

Daha önce birçok kez haberini yaptığımız “deepfake” yani “derin sahte” ile üretilen içeriklerin fark edilmesi günden güne zorlaşıyor. Üretilmesi ise kolaylaşıyor.

Obama’dan Merkel’e, Gal Gadot’tan Trump’a birçok siyasiye ve ünlüye uygulanan “deepfake” ilk olarak yetişkin içeriklerinde yapılan yüz değişiklikleriyle gündeme gelmişti. Şu anda yapılan montajların tespit edilmesi ve takip edilmesi sadece birkaç ay öncesine kıyasla çok daha zorlaşmış durumda.

İşin içerisinde yapay zekâ, kendi kendine öğrenen makine teknolojisi ve bolca antrenman var. “Yapay zekâ” ve “makine öğrenmesi” özellikle teknoloji ile ilgili kişilerin günlük hayatta da kullandıkları kavramlar arasına girmiş durumda. Ancak bunların yanında kullanılan “antrenman” ilk duyduğunuzda kulağınıza garip gelebilir ama bu tamamen bilgisayar üzerinde, görsellerin gelişmesi için uygulanan bir “antrenman.” Bu an antrenman kısaca: aynı işlemin binlerce, on binlerce kez yaptırılarak çıktı kalitesinin artırılması.

Herkesin başına gelmesi ise şu derece kolay. Eğer ünlüyseniz ve arama motorlarında çokça fotoğrafınız ya da videonuz varsa ya da herkese açık sosyal ağlarda yeteri kadar fotoğraf ya da videonuz varsa, doğru bilgisayar konfigürasyonu, biraz emek ve iyi bir antrenmanla “deepfake”e maruz kalmamanız için bir sebep yok.

Kısaca, temin edilen fotoğraflar ve videolar bir araya getiriliyor. Farklı açılardan toplanan görseller ile kaynak dosyası oluşturuluyor ve açık kaynak kodlu uygulama üzerinde program başlatılıyor. Bu aşamada “yapay zekâ”, “öğrenen makineler” ve “yazılımın antrenmanı” el birliği ile “sahte” içeriği oluşturuyor. Ne kadar çok farklı açıdan fotoğraf ve video var ise ve ne kadar çok antrenman yaptırılırsa sonuç da o kadar çarpıcı oluyor.

Deepfake ile ilk kez 2017’nin kış aylarında karşılaştık. Dünyanın en popüler internet forumlarından olan Reddit’te yer alan bir kullanıcı “Deepfakes” isimli bir sayfa açarak önce yetişkin içerikleri yükledi ardından da yazılımı internet dünyasıyla tanıştırdı.

İlk adımda Yıldız Savaşları ile büyük üne kavuşan aktris Daisy Ridley üzerinde uygulandı. Wonder Woman filmiyle uluslararası şöhrete kavuşan aktris Gal Gadot “deepfake” uygulanan ikinci yıldızdı. Bu aşamada teknolojiyle ilgilenenler böyle bir yazılımın varlığından haberdar olmaya başladı.

Emma Watson, Katy Perry, Taylor Swift ve Scarlett Johansson gibi ünlüler üzerinden sahte videolu içerikler süratle internet dünyasında yayılmaya başladı.

Ne sahneler gerçekti ne de bu videolarda gösterilen yüzler.

Bu videolar tamamen yüz değiştirme algoritması ve resim sentezlemeyle oluşturulan videolardı. İşin içerisinde yapay zeka destekli bir yazılım vardı. “Deepfake” kısa sürede siyasete de sıçradı. Arjantin Başkanı Mauricio Macri’nin yüzü Adolf Hitler ile, Angela Merkel ve Putin’in yüzü Donald Trump ile değiştirildi. Bu örnekler süratle çoğaldı.

Nisan 2018’de film yapımcısı ve aktör Jordan Peele ile Buzffeed’in kurucularından ve CEO’su olan Jonah Peretti birlikte hazırladıkları bir videoda “deepfake” uygulayarak Barack Obama’yı kullandılar. “Deepfake’in ne kadar tehlikeli olduğunu vurgulamaya çalıştılar. Hatta Obama bu videoda pek de arası olmadığı halefi Trump hakkında normalde söylemesi durumunda kriz çıkartacak şeyler “söyledi.” Aslında ortada ne Obama vardı ne de O’nun ağzından çıkan sözler gerçekti. Ortaya çıkan videonun özeti şuydu: her gördüğünüze inanmayın.

Şu anda “deepfake” videolarına karşı toplu bir mücadele var. İlk ortaya çıktığı Reddit dahil birçok site bu yazılımı barındıran linkleri ya da yazışmaları kapattı ya da kaldırdı. Biraz teknoloji meraklısı olanlar ise arama yaparak bu yazılıma ulaşmayı başarıyor.

Şöyle de bir gerçek var: bir şeyin internete düşmesi ne kadar kolaysa internetten kaldırılması da bir o kadar zor. 

İnternette ve özellikle sosyal medyada günümüzün en büyük problemlerinden biri olan “yanlış, yalan” haber ya da içerikle ilgili ciddi bir mücadele verilirken, “deepfake”in de bu denkleme girmesi işleri iyice karmaşık bir hale soktu. Bu içeriklerle mücadele hiç olmadığı kadar zorlaştı.

İnternet dünyasında yalan/yanlış içeriklerde özetle şu yaşanıyor: Kitleler bir içerikle karşılaşıp -doğru olup olmadığına bakmadan ya da bilmeden- buna tepki verdikleri zaman bu içerik popüler bir hale gelebiliyor. Ama bu eş zamanlı olarak doğruluğu kontrol ediliyor anlamı taşımıyor. Yani ne kadar yaygın olursa olsun bu doğru olduğu anlamına gelmiyor.

Sadece ufak bir kitle, bir içerik popüler olsun ya da olmasın, şüphe duydukları içerikler üzerinden bir doğrulama çabasına giriyor. Kısacası bir içeriği paylaşanlar çoğu zaman bunun gerçekliği, özgünlüğü ya da doğruluğunu teyit etmiyor. Ya da bu teyidi nasıl yapacağını bilmiyor. Bu da internetten yayılan içeriklerin daha da kırılgan bir hale gelmesine sebep oluyor.

Tabii ki yalan içerik ya da foto/video montajları ve bunların yayılması internet dönemiyle başlamadı. Ne de olsa internetin kamuda kullanımı 1989’un sonlarına denk geliyor. “Deepfake" ise bir içeriğin gerçeğe yakın bir şekilde hazırlanabildiği zaman ne kadar tehlikeli bir efsaneye dönüşebileceğinin göstergesi olarak bugün karşımızda.

Yalan, uydurma video ve ses teknolojisi o kadar hızlı bir şekilde gelişiyor ve kullanımı kolaylaşıyor ki yanlış ellerde işlenmesi durumunda ortaya çıkartabileceği negatif etkileri kestirmek güç. Bu etkiler yaşandıktan sonra iş işten geçmiş olabilir.

Birinin söylemediği bir sözü onun ağzına yerleştirmek. Birinin bulunmadığı bir ortamda bulunduğunu göstermek. Yani, birinin kimliğini çalıp hiçbir zaman yapmadığı şeyleri yapmış gibi ortaya atmak. İşte “deepfake”in özeti ve tehlikesi bu.

Şu anda bu herkesin inanacağı bir seviyede değil. Ancak yakın. Keskin gözler ya da sorgulamayı bilenler bu ve benzeri içeriklerin sahte, yalan olduğunu “şimdilik” çözebiliyor.

Bizim de kısa süre içerisinde yaptığımız bir denemede gördüğümüz gibi, ben Ahmet Yeşiltepe’ye dönüştüm, O da bana. Ve bu işlem kolay bir şekilde tamamlandı. Birinin yeterli görüntüsü internet üzerinden kolayca temin edebileceğiniz şekilde elinizin altındaysa yeterli kaynağınız var demektir. Bu işlemin espri amacıyla açıkça ifade edilerek yapılması başka ama manipüle etmek için uygulandığında gerçekten önünü almak çok zor ve temizlenene kadar iş işten geçmiş olabilir.

Ahmet Yeşiltepe’nin Dünyanın Haberi’nde yayınladığı “deepfake” videosunu aşağıda izleyebilirsiniz. Deepfake dosyası videonun 05:40 bölümünde: 

ETİKETLER