Deepfake İngilizce’de deep (derin) ve fake (sahte) kelimelerinin bir araya gelmesinden oluşur. Teknolojinin gelişmesiyle birlikte gerçeklik algısını derinden etkileyen deepfake, herhangi bir kişiyi aslında bulunmadığı video ya da fotoğraflara eklemeye denir. Deepfake ile eklenen kişilerin sahte olup olmadığını ilk bakışta anlamak oldukça zordur.
Deepfake Teknolojisi Nasıl Çalışır?
“Deepfake”, bir tür yapay zeka olan “derin öğrenmenin” altında yatan teknolojiyi ifade eder. Büyük miktarda veriye dayalı problemlerin nasıl çözüleceğini öğrenen derin öğrenme algoritmalarının yardımıyla, sahte medyanın gerçekçi görünmesi sağlanabilir.
Deepfake çeşitli şekillerde oluşturulabilir. En yaygın olanlardan biri, yüz değiştirme yöntemini kullanan derin sinir ağlarını ve otomatik kodlayıcıları içerir. İhtiyacınız olan ilk şey, deepfake için bir hedef videonun yanı sıra hedefe eklemek istediğiniz kişinin kliplerinden oluşan bir koleksiyondur.
Videolar tamamen ilgisiz olabilir; hedef bir Hollywood filminden bir klip olabilir ve seçilen konunun videoları YouTube’dan rastgele klipler olabilir.
Bir otomatik kodlayıcı, bir kişinin farklı açılardan ve çeşitli hava koşullarında nasıl göründüğünü belirlemek için video klipleri incelemek için oluşturulmuş bir yapay zeka programıdır. Daha sonra benzerlikler bularak o kişiyi hedef videodaki kişiyle eşleştirmek için kullanılır.
Deepfake nasıl bir tehdit oluşturuyor?
Gizlilik ve güvenlik savunucuları, teknolojinin dolandırıcılık ve şantajda kullanılmasından korkuyor; deepfake içeriklerin bunu daha da kolay hale getireceğini söylüyorlar. Uzmanlar deepfake videoların, medya okuryazarlığı kriziyle karşı karşıya olduğumuz bir dönemde ortaya çıktığını ve deepfake içeriklerle yayılan genellikle zararlı, yanıltıcı ve yanlış bilgilerin birçok kişi tarafından daha kolay kabul edileceği anlamına geldiğini belirtiyor.
Deepfake’leri diğer video kurgu ve fotoğraf düzenleme yazılımları ile karıştırmamamız gerekiyor. Deepfake’in anahtarı, ultra gerçekçi videolar oluşturmak için yapay zeka ve makine öğreniminin
Deepfake Sadece Video Mudur?
Deepfake teknolojisi sadece videolarla sınırlı değildir. Ses, çok çeşitli uygulamalara sahip, hızla büyüyen bir alandır.
Derin öğrenme algoritmalarıyla, sesi klonlanan kişinin yalnızca birkaç saatlik (veya bazı durumlarda birkaç dakikalık) sesinden gerçekçi ses sahtekarlıkları yapılabilir. Bir ses modeli yapıldıktan sonra o kişinin her şeyi söylemesi sağlanabilir.

Deepfake Nasıl Tespit Edilir?
Yapay zekâ teknolojisinin bir alt dalı olan derin öğrenme ile geliştirilen sahte fotoğraflar, hareketsiz görseller ya da videolar, her geçen gün gerçeğe daha yakın bir hâle gelmektedir. Peki gerçek ve sahte içerikleri nasıl ayırt edebileceğinizi düşündünüz mü? Sahte içerikleri keşfetmek için dikkat etmeniz gereken bazı noktalar şunlardır:
- Gözler, sahteliği ayırt etme sürecindeki en belirgin ipucu olabilir. Videodaki kişinin normal olmayan göz hareketleri ve hiç göz kırpmaması sahte olduğunun işaretidir. Ayrıca göz bebeklerinin boyutundaki bozukluklar ve yansımalar videonun sahteliğini ele verebilir.
- Sahteliği ayırt etmek için fotoğraf ya da videodaki kişilerin yüzlerini detaylı olarak inceleyebilirsiniz. Cildin çok pürüzsüz ya da aşırı kırışık olması, benlerin gerçekçi durmaması ve yüzdeki orantısızlıklar sahteliğin işareti olabilir.
- Gerçek kişilerin gözlüklerinde parlak açısı kişi hareket ettiğinde değişir. Deepfake teknolojisi, aydınlatma ve yansımanın doğallığına erişemeyebilir.
- Jest ve mimikler canlıların düşüncelerini hareket yoluyla ifade etme şeklidir. Deepfake teknolojisi aracılığıyla üretilen video içeriklerinde kişilerin sözleriyle jest ve mimikleri uyumlu olmayabilir.
- Deepfake teknolojisi genel olarak yüze odaklandığından kişilerin vücutlarındaki orantısızlık sahte olduğuna işaret eder.
- İçeriklerdeki kişiler hareket ettiklerinde önceki hâline göre farklılık oluşuyorsa deepfake ile üretilmiş olabilir.
- Gerçek yaşamdaki gibi doğal bir tona sahip olmayan ten rengi ve gölgeler içeriğin sahte olduğunu anlamanıza yardımcıdır.
- Deepfake teknolojisiyle üretilen içeriklerdeki kişilere ait saçlar; donuk ve uyumsuz görülebilir. Hareket ederken saç tellerinin normal olmaması sahteliğe işarettir.
- Deepfake teknolojisinde kullanılan algoritmalar, her ağız tipindeki dişler üzerinde yeterince etkili olmayabilir. Dolayısıyla dişlerin çeneye uyumsuzluğu sahteliğin belirtisidir.
- Görüntüler bulanıksa ya da yanlış hizalanmış ise sahte olabilir. Örneğin içerikteki kişi hareket ettiğinde yüzü ve boynu farklı açılara kayıyorsa şüpheye düşebilirsiniz.
- Deepfake teknolojisiyle üretilen içeriklerde dudak senkronizasyonu zayıf olabilir, kelimeler garip bir şekilde telaffuz edilebilir ve arka planda robotik sesler çıkabilir. Arka plandaki gürültünün aksine hiç ses olmaması da sahte içerikleri ayırt ederken ipucu olarak kullanılabilir.
- Videoları ya da fotoğrafları yakınlaştırarak ilgili karakterdeki detayları inceleyebilirsiniz. Böylelikle saç, göz ve diş gibi yüz detaylarındaki normal olmayan durumlar fark edilebilir.
- Son zamanlarda geliştirilen blok zincir tabanlı sistemler aracılığıyla bir videonun gerçek olup olmadığı kontrol edilebilir. Bu sayede herhangi bir video oluşturulduğunda kayda alınır ve sonraki dönemlerdeki benzer sahte içerikler için yol gösterici bir doğrulama sistemi hâline gelir.
Deepfake Ne Tür Zararlara Yol Açabilir?
Deepfake olarak adlandırılan derin öğrenme teknolojileri gerçek kişilerin fotoğraf ya da videolarını inceleyerek aynı davranışları sahte içerikler ile taklit eder, konuşma modellerini öğrenir, dudak hareketlerini yapar ve jest ve mimiklerini uygular. Dolayısıyla bir kişinin sahte bir kopyasını farklı birinin üzerine koymak oldukça kolay bir hâle gelir.
Sahte yüzün vücut bulduğu kişiler, hedef kişilerin yerini aldığından hiç söylemediği ya da hiç yapmadığı şeylerden sorumlu tutulabilir. Bu durum karmaşaya, sahtekarlığa ve dolandırıcılığa yol açar. Bu teknoloji usulsüz olarak kullanılırsa kişiler masum olsalar bile ceza alabilir. Özellikle halk tarafından bilinen ünlü oyuncu, siyasetçi, şarkıcı, tiyatrocu, futbolcu ve politikacı gibi kişilerin sahte video ya da fotoğraf içerikleri toplumdan dışlanmalarına ve toplum baskısı altında ezilmelerine neden olabilir.
Hedef gösterme ya da intikam alma gibi amaçlar nedeniyle de uygulanabilecek olan deepfake içerikleri, gerçek kişilerin rızası olmadan pek çok sosyal medya uygulamasında ve internet üzerindeki diğer mecralarda yayılabilir. Gerçek kişiler bunun sonucunda suçluluk hissedebilir, toplum tarafından dışlanabilir ve yasal açıdan problemler ortaya çıkabilir. Bu durumların önüne geçmek için kişiler, büyük bir özen göstererek tedbir almalıdır.
Kişiler Deepfake Teknolojisiyle Oluşturulan İçeriklere Karşı Ne Yapmalıdır?
Statista’ya göre dünya genelinde yapay zekâ teknolojisi kullanılarak yapılan olası siber saldırı senaryolarının %43’ünü deepfake oluşturuyor. Deepfake’in hem kişilere hem de kurumlara siber güvenlik açısından tehlike yarattığı öngörülüyor. Kişiler; deepfake teknolojisindeki sahteliği tespit etme amacıyla geliştirilen bazı uygulamaları kullanabilir. Sensity AI ve Deepware AI gibi uygulamalar aracılığıyla şüphelendiğiniz videoların gerçek olup olmadığını inceleyebilirsiniz. Bir yandan sahteciliği tespit etme amacıyla uygulamalar geliştirilirken bir yandan da deepfake derin öğrenme metoduyla yenilenmeye devam eder. Dolayısıyla bu çekişmede derin öğrenme algoritmasının mantığını kavramak ve tespit sürecinde içeriklerdeki ince detayları değerlendirmek önemlidir.
Kurumlar Deepfake Teknolojisinin Zararlarından Nasıl Korunabilir?
Deepfake teknolojisinden korunmak için kurumlar; ağ ve siber güvenlik operasyonlarını etkili bir şekilde yönetmeli, merkezi bir raporlama ve izleme birimi oluşturmalı, şirket içi iletişim kanallarını geliştirmeli ve halkla ilişkiler departmanıyla bağlantıyı koparmamalıdır. Ayrıca bilgileri tutarlı olan kurumlar deepfake ile üretilen sahte içerikler ile karşı karşıya kaldıklarında personelleri ve müşterileri tarafından daha az baskı altında kalır. Bu gibi durumlarda hızlıca aksiyon alabilmek için personeller ve yönetim ekibi; kurum içi ve kurum dışında planlamalar yapabilir. Böylelikle olası tehlikelerin meydana getirebileceği zararları en aza indirmek mümkündür.

