İZLEDİĞİNİZ VİDEOLARDAKİ YÜZLER GERÇEK OLMAYABİLİR..
Uydurulmuş resimler, sahte videolar ve bilgisayar tarafından oluşturulan haberleri dağıtmak her zamankinden daha kolay.
Günümüzde, bilgi işlem gücü ve yapay zeka, sahte medyanın oluşumunu demokratikleştirdi. Görüntüler sentezlenebilir, videolar manipüle edilebilir, ses taklit edilebilir ve metin yazılabilir, bunların tümü derin öğrenme sinir ağları tarafından yapılabilir.
Kamera uygulamaları giderek daha karmaşık hale geldi. Kullanıcıların bacaklarını uzatabilir, sivilceler çıkarabilir, hayvan kulaklarını ekleyebilir ve çok gerçekçi görünen sahte videolar bile oluşturulabilir.
Bunlar daha sonra sosyal medya platformlarına yayılabilir ve ortak gerçekliğimizi bozabilir.
Değiştirilmiş videoların ve görsellerin üstesinden gelmek kolay bir iş değildir. Bilim adamları, yayılmalarının kökenlerini izliyor, dijital sahtekarlıklara karşı koymak için yeni teknikler araştırıyor ve ilerideki artan tehlikeler konusunda uyarıda bulunuyor.
Çevrimiçi deepfake içeriğinin sayısı hızla artıyor. Deeptrace şirketinin bir raporuna göre, 2019'un başında çevrimiçi olarak 7,964 deepfake videosu vardı; sadece dokuz ay sonra bu rakam 14.678'e çıktı. O zamandan beri hiç şüphesiz artış devam etti.
Yukarıdaki anlık görüntüler, tanıdığınız kişilere benziyor. Kızınızın üniversiteden en yakın arkadaşı olabilir mi? İnsan kaynaklarından işyerindeki adam mı? Burkulan ayak bileğinize bakan acil servis doktoru mu? Sokağın sonundaki çocuklardan biri mi?
Hayır! Bu görüntülerin tümü, en son yapay zeka teknolojisi ile bilgisayar tarafından oluşturulan, fotogerçekçi medyanın takma adı olan "deepfake" dir. Bunlar, bu hızlı gelişen yöntemin neler yapabileceğinin sadece bir örneğidir.
Deepfake’ler, gerçek gibi görünen uydurma görüntüler ve sesler sağlayan, karmaşık yapay zeka tarafından üretilen manipüle edilmiş videolara veya diğer dijital temsillere atıfta bulunur.
Deepfake hazırlayıcıları bir saldırının yakın olduğunu söyleyen bir acil durum uyarısı oluşturabilir ya da sahte bir seks videosuyla birinin evliliğini bozacak bir video yada seçim öncesi adaylardan birinin sahte bir videosunu veya ses kaydını yayınlayarak yakın bir seçimi bozmak da son derece kolay olacaktır.
Deepfake'ler Nasıl Tespit Edilir
Her geçen gün sahte içerikleri tespit etmek ciddi bir son haline geliyor…
Amatör derin sahteleri elbette çıplak gözle tespit edilebilir. Göz kırpma eksikliği veya yanlış görünen gölgeler yakalanabilir. Fakat deepfake üreten profesyoneller sürekli daha iyi hale geliyor ve yakında deepfake'leri tespit etmek için dijital adli tıp bilimlerine güvenmek zorunda kalacağız.
Araştırmacılar ve eleştirmenler, sahte videoları tespit edemezsek, yakında gördüğümüz ve duyduğumuz her şeye güvenmememiz gerektiği konusunda uyarıyor.
İnternet artık hayatımızın her alanında aracılık ediyor ve gördüğümüz şeylere güvenmeme gerçeklik algısının değişmesine yol açabilir.
Bu sadece politik sistemimize olan inancımızı değil, aynı zamanda uzun vadede paylaşılan nesnel gerçekliğe olan inancımızı da tehdit ediyor. Neyin gerçek olup olmadığı konusunda anlaşamazsak, sorunlarımızı nasıl tartışabiliriz.
Teknoloji platformları, deepfake'lerle mücadele üzerinde çalışıyor ve yeni politikalar uygulamaya koydu. Sonuçlar karışık.
Facebook'un Deepfake içerikleriyalnızca % 65 oranında tespit etti.
Facebook sözcüsü Axios'a yaptığı açıklamada, şirketin deepfake'lerin yayılmasını beklediğini ve "bu alanda daha fazla araştırma ve geliştirmeyi hayata geçirerek ve daha büyük bir sorun haline gelmeden önce deepfake'leri tespit etmek için daha iyi açık kaynak araçları olmasını sağlamak" istediğini söyledi.
Google, sentetik medyayı durdurmak için yollar araştırdığını ve bunlara yatırım yaptığını ve derin sahte saptamayı araştırdığını söyledi.
YouTube, manipüle edilmiş medyanın aldatıcı kullanımını yasakladı. 2020'nin başlarında Facebook, TikTok, Twitter ve Reddit , deepfake politikalarını sıkılaştırmaya başladı.
Kaynaklar:
https://www.csoonline.com/article/3293002/deepfake-videos-how-and-why-they-work.html
https://www.cnbc.com/2019/10/14/what-is-deepfake-and-how-it-might-be-dangerous.html
https://www.knowablemagazine.org/article/technology/2020/synthetic-media-real-trouble-deepfakes
https://www.axios.com/techs-ever-growing-deepfake-problem-b3012503-4c74-4527-8d91-c5015848d3f1.html
Comments