Deepfake günümüz dünyasında aslında çok da fazla geçmişe sahip olmayan bir teknoloji. Deepfake başta zararsız, iyi niyetle kurulmuş bir teknolojiyken birden sosyal mecralarda iftiraların silahına dönüştü.
Bu yazımda size Deepfake tam olarak nedir, nasıl çalışır, deepfake’i tespit edebilir miyiz, bu gibi soruların yanıtlarını vermeye geçmeden önce bir fotoğraf göstereceğim.
Mesela şu görmüş olduğunuz kişi Morgan Freeman‘a ne kadar benziyor değil mi? Aslında o değil. Sizin gerçeklik algınız nedir? Gerçekten artık kavramlar anlamını yitirmeye başlamışa benziyor.
Eğer burada bir şeyi görebiliyorsanız, bu onu gerçek yapar mı yoksa sadece hissetme yeteneği mi size onun gerçek ya da sahte olduğunu söyler? Yapay gerçeklik çağına hoş geldiniz..
Deepfake Nedir?
Deepfake teknolojisi: Hazır olan bir görüntü veya videoda yer alan herhangi bir kişinin, yapay sinir ağları kullanılarak bir başka kişinin görüntüsü ile değiştirildiği bir medya türüdür.
Bir düşmanınız mı var, ağzından küfürlü sözler mi çıkarmak istiyorsunuz? ya da sıradan bir insanın sesini dünyaca ünlü şarkıcılarınmış gibi mi çıkarmak istiyorsunuz? O zaman deepfake devreye giriyor.
Deepfake ilk başlarda sınırlı iken şuanda birçok alanda kullanılabiliyor. Maalesef en çok da kötü anlamda kullanılmakta.
Mesela siyasiler içinde de çok fazla sahte videolar üretilebiliyor, dolandırıcılıkta da en çok kullanılan yöntemlerden birisi. Ülkemizde de oldukça meşhur.
Şimdi üç ana deepfake türünden bahsedeceğim, bunların çalışmasını sağlayan veri bilimini de inceleyeceğiz.
Şunu da ekleyim araştırmacıların ve güvenlik danışmanlarının deepfake’lerin kötü amaçlı kullanımını engellemek için üzerinde çalıştıkları deepfake tespit teknolojilerine değineceğiz.
Deepfake Metinleri
Yapay zekanın ve doğal dil işlemenin ilk zamanlarında, bir makinenin resim yapmak veya yazmak gibi yaratıcı bir aktiviteyi yapmasının zor olacağı konuşuluyordu.
2021 yılına doğru araştırmacıların ve veri bilimi profesyonellerinin çalışmalarıyla birlikte yıllar içinde oluşturulan güçlü dil modelleri ve kütüphanelerle, en iyi AI tarafından üretilen düzyazı artık insan benzeri özgün ve tutarlılıkla yazılar yazabiliyorlar.
Güçlü, geniş dil modeli ve kütüphaneleri sayesinde yapay zeka destekli yazılım araçları insan benzeri yazılar yazabiliyorlar.
GPT-2
Örneğin, OpenAI tarafından yayınlanan metin oluşturma sisteminin son türüne yakın olan GPT-2‘yi ele alalım. Bu teknoloji, tutarlı metinler üretme yeteneğiyle hem amatörleri hem de alan uzmanlarını oldukça etkilemeyi başardı.
OpenAI‘ın mühendisleri, GPT-2 AI’nın modellenmesi ve eğitimi için, web sayfalarından ilgili veri çıkarma yöntemiyle birlikte çıkarılan 8 milyondan fazla metini bir milyar parametreyle birleştirdi.
Yapay teknolojilerden yararlanan deepfake ve deeplearning gibi diğer teknolojilerin özünde aslında yazılımın geçmiş verileri kullanarak düşünmesi ve kendini uyarlaması için eğitilmesi yatar.
GPT-2 kullanarak, sadece başlığı girebilirsiniz ve deepfake metin algoritması bu başlık etrafında kurgusal bir haber hikayesi üretebilir ya da sadece bir şiirin ilk satırını verin ve tüm kıtayı döndürsün.
Birçok medya kuruluşu, yazılımların kendileri tarafından yazılan hikayeler veya bloglar üretmek için deepfake algoritmalarını kullanıyorlar.
Sosyal Medyada Deepfake’ler
Hikaye veya blog yazmanın dışında, deepfake teknolojisi normal bir kullanıcının ayırt etmesinin gerçekten zor olacağı sahte bir çevrimiçi profil oluşturmak için de kullanılabiliyor.
Örnek verecek olursam: Linkedin ve X gibi sosyal paylaşım sitelerinde bir profil açılmıştı. Profil resmi zaten garip görünüyordu, belki de bilgisayar tarafından oluşturulmuştu.
Bu profil muhtemelen finansal çıkar için oluşturulmuştu, çünkü bu şahıs sosyal medyada Tesla hissesi için satış yapanlarla tekrar tekrar bağlantı kurmaya çalıştı.
Satış yapanlar, borsada düşüş bekleyen ve hisse senedi fiyatının düşeceğine inanarak hisse senedini satan ve daha sonra daha düşük bir fiyattan hisse senedi satın alarak etkili bir şekilde güzel bir kar elde eden kişilerdi.
Stratejik ve Uluslararası Araştırmalar Merkezi’nde çalıştığı iddia edilen başka bir profilin ise kötü niyetli casusluk amacıyla oluşturulmuş bir deepfake olduğu ortaya çıktı. Daha bunun gibi çok fazla sahte hesaplar üretilmekte.
Bazıları bundan para kazanmaya çalışsa da bazıları sadece takipçi kazanmak için bu yönteme başvuruyor.
Özellikle bu yeni yapay zekalarda gerçekten insandan ayırt edilemeyen kişiler oluşturulabiliyor bu yüzden sosyal mecralardaki resim ve profillere güven azaldı maalesef.
Metinsel Deepfake’leri Tespit Etme
Allen Yapay Zeka Enstitüsü‘nden araştırmacılar, çevrimiçi ortamda yapay içeriği tespit etmek için ‘Grover’ adlı bir yazılım aracı geliştirdiler. Araştırmacılar, bu yazılımın %92 oranında deepfake ile yazılmış makaleleri tespit edebildiğini iddia ediyor.
Yine son zamanlarda birçok sahte makale içeriklerin sayısı arttığından ötürü artık yeni yeni tespit araçları geliştirdiler. Grover bunların ilkiydi diyebiliriz.
Sahte Video
Sosyal medyanın her yerde olduğu bir dünyada yaşadığımızı varsaydığımızda, resimlerin ve videoların olayları ve hikayeleri düz metinden daha iyi açıkladığı, deepfake’in en çok kullanılan biçimidir.
Sahte fotoğraflar ve videolar hazırlamak, deepfake’lerin temel cephanesidir.
Modern video üreten yapay zeka, doğal dil muadilinden daha yetenekli ve belki de daha tehlikelidir.
Seul merkezli teknoloji şirketi Hyperconnect yakın zamanda tarihi figürlerin, ünlülerin ve politikacıların deepfake videolarını üretebilen ‘MarioNETte’ adlı bir araç geliştirdi. Bu, başka bir kişinin yüz ifadelerinin yeniden canlandırılmasıyla bilinen bir teknoloji. Bu yöntemle kişinin yüz ifadeleri, deepfake’i oluşturulacak hedeflenen kişiliğin üzerine konuluyor..
Deepfake Video Nasıl Üretiliyor?
Bu video hilesi, düşmanca ağ (GAN) adı verilen bir tekniği kullanır . Sinir ağları adı verilen bir makine öğrenme dalının bir parçasına GAN deniyor. Bu ağlar neye yarıyor derseniz insan beyninin nöronal süreçlerini taklit etmek üzere tasarlandılar.
Programcılar, sinir ağlarını belirli bir görevi tanımaları veya manipüle etmeleri için eğitebiliyorlar.
Deepfake üretimi için kullanılan GAN’da, gerçekçi bir çıktı üretebilmek için iki sinir ağı birbirine karşı yarıştırılır. Bunu yapmanın amacı ise, deepfake’lerin mümkün olduğunca gerçekçi görünmesini sağlamaktır.
GAN’ın özü, iki sinir ağı arasındaki rekabette yatıyor. GAN’da, resim sahtecisi ve sahtecilik dedektörü birbirlerini alt etmeye çalışır. Her iki sinir ağı da aynı veri kümesi kullanılarak eğitilir.
İlk ağ, gürültü vektörlerini (rastgele sayılardan oluşan bir liste) kullanarak olabildiğince gerçekçi görünen sahte bir görüntü oluşturmak olan jeneratör ile adlandırılır. Ayırıcı olarak adlandırılan ikinci ağ, oluşturulan görüntülerin doğruluğunu belirler.
Jeneratör tarafından oluşturulan sahte görüntüyü, veri kümesindeki gerçek görüntülerle karşılaştırarak hangi görüntülerin gerçek, hangilerinin sahte olduğu belirlenmiş olur.
Bu sonuçlara dayanarak, jeneratör görüntü oluşturma parametresini değiştirir. Bu döngü, ayırıcı oluşturulan görüntünün sahte olduğunu tespit edemeyene kadar devam eder ve bu daha sonra nihai çıktıda kullanılır. Deepfakelerin ürkütücü derecede bu kadar gerçek görünmesinin sebebi bu.
Deepfake Videolarının Tespiti
Dünya çapında adlı tıp uzmanları tarafında da yoğun bir çalışma var. Sebebi her geçen gün daha da inandırıcı hale gelen deepfake içerikleri.
Örneğin, 2018’de Buzzfeed tarafından yayınlanan ve dünya çapındaki izleyicileri şaşkına çeviren Obama’nın bu deepfake videosu vardı belki izlememişsinizdir.. Buradan inceleyebilirsiniz:
6 sene önceye göre baya ileri seviye bir teknoloji. Birde şuan ki deepfakeleri düşünün ayrıt etmesi zor bir şey.
ABD Savunma Bakanlığı (DARPA), Media Forensics adlı deepfake’leri tespit etmek için bir araç yayınladı. Başlangıçta, program sadece mevcut adli araçları otomatikleştirmek için geliştirilmişti ancak zamanla deepfake’lerin yükselişiyle birlikte, AI destekli deepfake’lere karşı koymak için AI’yı kullandılar. Nasıl çalıştığına bakalım.
Deepfake kullanılarak oluşturulan video, teknik olarak videonun meta verilerinin dağıtılma biçiminde orijinal videoya kıyasla ince ama görülebilir farklılıklar vardır.
Bu farklılıklara matristeki bakışlar denir ve DARPA’nın deepfake tespit aracının, deepfake medyayı tespit ederken yararlanmaya çalıştığı şey budur.
Siwei Lyu; New York Eyalet Üniversitesi bilgisayar bilimleri bölümünden profesör, deepfake teknolojisi kullanılarak oluşturulan yüzlerin nadiren göz kırptığını belirtti. Göz kırpsalar bile, bu doğal görünmüyor. Bunun, deepfake odaklı videoların çoğunun hareketsiz görüntüler kullanılarak eğitilmesinden kaynaklandığını öne sürüyor.
Göz kırpmanın yanı sıra, konuşurken üst dudağını kaldırması, başlarını nasıl salladığı vb. gibi yüz hareketleriyle ilgili diğer veri noktaları da yayınlanan videonun sahte olup olmadığına dair ipuçları gösterebilir.
Deepfake Ses
Yapay zekanın ve sinir ağlarının gücü yalnızca metin, resim ve videoyla sınırlı değildir. Aynı kolaylıkla bir kişinin sesini klonlayabilirler. Tek gereken, sesinin taklit edilmesi gereken bir kişinin ses kaydının veri kümesidir.
Deepfake algoritmaları bu veri kümesinden öğrenecek ve hedeflenen kişinin konuşmasının prozodisini yeniden oluşturma gücüne kavuşacaktır.
Lyrebird ve Deep Voice gibi ticari yazılımlar piyasaya sürülüyor, yapay zeka sesinize ve tonlamanıza alışana kadar sadece birkaç cümle konuşmanız gerekiyor. Kendinize ait daha fazla ses girdikçe, bu yazılım sesinizi klonlayacak kadar güçlü hale geliyor.
Kendi ses örneklerinizin veri kümesini girdikten sonra, sadece bir cümle veya bir paragraf verebilirsiniz ve bu deepfake yazılımı metni sesinizle anlatacaktır!
Deepfake Sesini Algılama
Şu anda, deepfake ses teknolojisine özel çok fazla araç yok ancak geliştiriciler ve siber güvenlik şirketleri bu alanda çalışarak daha iyi koruyucu çözümler üretiyorlar.
Örneğin, geçen yıllarda teknoloji girişimi Resemble’daki geliştiriciler, deepfake ses kliplerinin tespiti için Resemblyzer adlı açık kaynaklı bir araç geliştirdiler. Resemblyzer, ses örneklerinin gerçek mi yoksa sahte mi olduğunu tahmin etmek için hesaplama gösterimlerini türetmek için gelişmiş makine öğrenimi algoritmaları kullanıyorlar.
Bir kullanıcı değerlendirme için bir ses dosyası gönderdiğinde, gönderilen ses örneğinin benzersiz özelliklerini özetleyen matematiksel bir gösterim üretir. Bu dönüşüm sayesinde, makinenin sesin gerçek mi yoksa deepfake araçları tarafından yapay olarak mı üretildiğini tespit etmesi mümkün hale gelir.
Deepfake’in Gelişimi
Deeptrace laboratuvarları tarafından geçen yıl yapılan bir araştırma, Birkaç milyondan fazla deepfake içeriklerin çevrimiçi ortamda gizlendiğini buldu. Ayrıca, sadece yedi aylık bir süre içinde üretimlerinde %90 bir artış olduğunu da kaydettiler.
Deepfake ciddi bir yükseliş kazanırken, yalnızca mahremiyete değil, aynı zamanda bireylerin onuruna da müdahale etme konusunda ciddi bir sorun olarak karşımıza çıkmakta.
İronik olarak, AI destekli deepfake’lere karşı koymak için yapay zekanın kendisi kullanılıyor.
‘İyi’ bir AI deepfake’leri tespit etmeye yardımcı olsa da, bu tespit sistemi eğitim için tükettiği veri kümesine büyük ölçüde güveniyor. Bu, ünlülerin deepfake videolarını tespit etmek için iyi çalışabilecekleri anlamına geliyor, çünkü onlar hakkında çok miktarda veri mevcut. Ancak düşük profilli bir kişinin deepfake’ini tespit etmek bu tür tespit sistemleri zorlayıcı olacaktır.
Sosyal medya teknoloji devleri de deepfake tespit sistemleri üzerinde çalışıyor. Facebook yakın zamanda platformundaki deepfake içerikleri tespit edip ayıklayacak otomatik bir sistem üzerinde çalıştı. Benzer şekilde X, kışkırtıcı oldukları tespit edilirse deepfake’leri işaretlemeyi ve ortadan kaldırmayı önerdi.
Deepfake Bir Suç Mu? Mağdur Olan Kişi Ne Yapmalı?
Deepfake’in yeni bir teknoloji olduğunan bahsetmiştim. Bu ve bezneri sebeplerden dolayı mağdur olan insanların çok fazla başvurabilecekleri hukuki imkanlar bulunmuyor.
Ancak hukuki açıdan da gelişmeler söz konusu. Teknolojinin gelişimiyle birlikte oldukça fazla suçlar da artı ve suçların yapılışı da değişti. Bundan ötürü hukuki açıdan seminerler ve paneller düzenlendi.
Hukuki açıdan bakarsak, ortada kişilik hakkına açık bir saldırının olduğu gözlemleniyor. Bu kapsamda mağdur olan kişi;
- 5237 sayılı Türk Ceza Kanunu’nun 245/A maddesi uyarınca; bu program aracılığıyla kişilik hakkına yapılan bu saldırı nedeniyle savcılığa suç duyurusunda bulunularak bu kişilerin cezalandırılmasını isteyebilecektir.
- 5846 Sayılı Fikir ve Sanat Eserleri Kanunu’nun 84. maddesi uyarınca; kişiye ait olan resmin kullanılması ve çoğaltılması yoluyla elde edilen bu içeriklerin yayınlanmasının men edilmesini isteyebilecektir.
- 5651 sayılı İnternet Ortamında Yapılan Yayınların Düzenlenmesi ve Bu Yayınlar Yoluyla İşlenen Suçlarla Mücadele Edilmesi Hakkında Kanun’un 6, 8, 8/A ve 9. maddesi uyarınca; kişilik hakkına açık saldırı niteliği taşıyan bu içeriğin çıkartılmasını içerik sağlayıcısına, buna ulaşamaması hâlinde yer sağlayıcısına başvurarak uyarı yöntemi ile içeriğin yayından çıkarılmasını isteyebileceği gibi doğrudan sulh ceza hâkimine başvurarak içerik veyahut yer sağlayıcı aracılığıyla sunulan içeriğe erişimin engellenmesini de isteyebilecektir.
- Türk Medeni Kanunu’nun 24 ve 25. maddesi uyarınca; önceden biliyor ise saldırı tehlikesinin önlenmesini, sürmekte olan saldırıya son verilmesini, sona ermiş olsa bile etkileri devam eden saldırının hukuka aykırılığının tespitini kendi yerleşim yerinde bulunan hakimden isteyebilecektir.
Çözümler arasında en etkin ve en hızlı olanı, eğer hak ihlali sosyal mecradan yapılıyor ise buralara 5651 sayılı kanın uyarınca başvuru ile içeriğe erişimin engellenmesinin talep edilmesi yöntemidir.
Deepfake suçları, özellikle son dönemde aşırı artış gösteriyor ve yasal düzenlemeler de bu yönde yapılmaya çalışılıyor. Bu teknolojinin kullanımıyla gerçekleştirilen suçların cezai yaptırımları da oldukça ciddi boyutlarda olabiliyor.
Bu sebeplerden dolayı bu teknolojinin sadece etik ve yasal amaçlar için kullanılması gerekiyor. Yasa dışı kullanımlarının engellenmesi oldukça önem arz ediyor. Deepfake teknolojisinin böyle kalmayıp daha da ilerleyeceğini düşünüyorum.
Bu teknoloji şirketlerinin çabalarını kabul ediyor ve takdir ediyoruz ancak kötü amaçlı deepfake’leri uzak tutmada ne kadar başarılı olduklarını da zamanla göreceğiz.