Yapay zekâ yoluyla istediğiniz kişinin çıplak fotoğrafını önünüze sunabilen “ClothOff” adlı uygulama, reşit olmayan birçok kız çocuğunun şantaja ve psikolojik şiddete maruz kalmasına sebep oldu. Kızların gerçek olmayan ama gerçeğinden farkı olmayan çıplak görüntüleri elden ele yayıldı.
The Guardian’ın öncülüğünde araştırılmaya devam eden konunun detaylarına inmeden önce “deepfake” dediğimiz şey tam olarak nedir ve ne gibi şeyler yapabilir bir bakalım.
Deepfake nedir?
Deepfake, çoğunlukla yapay zekâ teknikleriyle oluşturulan sahte ya da manipüle edilmiş ses kayıtları, videolar ya da fotoğraflardır. Örneğin birinin videosu çok gerçekçi bir şekilde değiştirilerek videoda söylediğinden çok farklı şeyler söylüyormuş gibi yapılabilir.
Aynı şekilde sizin bir fotoğrafınız kullanılarak yapmadığınız bir eylemde bulunuyormuş ya da bir şey söylüyormuş gibi gösterilebilirsiniz. Tüm bunlar, birkaç fotoğrafın ya da videonun verileri kullanılarak kusursuz bir şekilde gerçekleştirilebilir.
Şuraya bir deepfake videosu da bırakalım:
Tek kurban Taylor Swift de değil.
Hatırlarsanız geçtiğimiz ay Taylor Swift’in deepfake görüntüleri epey gündem olmuştu. Ne yazık ki bu durum yalnızca birkaç kişinin başına gelmiyor. Bilmediğimiz şehirlerde, kasabalarda, topluluklarda; birçok insanın bu şekilde görüntüleri kullanılabiliyor.
Kaynak: WEBTEKNO.COM