Amerika Birleşik Devletleri’nin en çok hangi teknolojiden korktuğunu tahmin edebilir misiniz? CNBC Türkiye’den alıntı yapan bu süper güç, kolayca sahte videolar veya aldatmacalar oluşturmak için suistimal edilebildiği için derin sahte teknolojiden korkuyor. Gelişmişliği nedeniyle, en son deepfake teknolojisi ölü insanları canlandırabilir!
MyHeritage’ın Deep Nostalgia adlı deepfake teknolojisi size Harry Potter’ın büyücü dünyasını hatırlatacak. Yetim Harry Potter, ailesiyle hiç tanışmadı. Ancak gerçek insanlar gibi hareket edebilen anne ve babasının fotoğraflarını görerek hasretini giderebilir.
Peki, Derin Nostalji’nin ana konsepti, büyücülük dünyasındaki bu fotoğrafa oldukça benziyor. Bu teknoloji, eski fotoğrafları kullanarak ölmüş insanları hayata döndürmenizi sağlar. Deepfake, bir fotoğrafın genel olarak yaşayan bir insan gibi hareket etmesini sağlar.
Böylece deepfake teknolojisinden yararlanarak aile üyeleriniz veya sevdiklerinizle eski günleri anabilirsiniz . Ne yazık ki, herkes bu yenilikten memnun değil. Deepfake’lerin insanlara fotoğraflarla hayat verme yeteneği karşısında mutlu olmak yerine dehşete düşenler de var .
Ayrıca deepfake’ler de kolay ve ucuz bir şekilde işletilebilir. Bu nedenle, inatçı bireylerin pornografi işine sahte haberler, dolandırıcılık, siber saldırılar yaymak gibi olumsuz şeyler için deepfake’lerden yararlanmaları için daha büyük fırsatlar var .
Eski başkan Barack Obama’nın Donald Trump’a hakaret ettiği sahte videodan bazı derin suistimal örneklerini görebilirsiniz. Sadece bu da değil, Kore idolü deepfake’leri içeren pornografik web siteleri de bulacaksınız .
Yukarıdaki artıları ve eksileri gördükten sonra , deepfake’ler hakkında ne düşünüyorsunuz ? Aslında, kişisel kazanç için kullanıldıkları sürece deepfake’ler hala güvenli sınırlar içindedir. Bununla birlikte, içerik sahte veya uydurma olabileceğinden, internette video izlerken çok dikkatli olmalısınız.