Manşet Teknoloji

Göz görür, gönül aldanır

Göz görür, gönül aldanır 02

Eğer Hollywood filmleriyle az çok ilgiliyseniz, Gal Gadot’yu tanırsınız. Amazon prensesi Diana Prince olarak tecessüm ettiği süper kahraman macerasını 2016’dan bu yana sürdüren İsrailli oyuncu ve model, Wonder Woman performansıyla sinemanın güçlü kadın figürleri arasında kendisine kıymetli bir yer edinmeyi başardı. Öte yandan, takvimler Aralık 2017’yi gösterirken, Vice’ın teknoloji sitesi Motherboard, Reddit’in dehlizlerinden çekip çıkardığı bir videoyla, bildiğimiz Gal Gadot’nun bilmediğimiz bir bedendeki beklenmedik performansına dair okurlarına bilgi veriyordu. Deepfakes rumuzlu bir Reddit kullancısının platformda paylaştığı video, Gal Gadot ile üvey kardeşinin birlikte oluşunu konu alıyordu. Ancak Gal Gadot’nun cinsel içerikli bir videosunun olmasından daha ilginci, Gal Gadot’nun aslında cinsel içerikli bir videosunun olmamasıydı. “Deep learning” algoritmalarına aşina herhangi birinin imzasını taşıyacak amatörlükte ancak dikkatli bakmayan gözleri inandıracak kadar gerçekçi olan bu videonun benzerlerini başrolünde Scarlett Johansson, Maisie Williams, Taylor Swift ve Aubrey Plaza gibi başka ünlü simalarla da üreten ve hazırladığı videoları “r/deep fakes subreddit”inde sergilemeye karar veren Deepfakes’in bu çabaları, Şubat 2018’de Reddit’in başlığı kaldırmasıyla baltalansa da mevzubahis görsel işitsel sahtecilik, her geçen gün daha gerçekçi bir görünümde milyonlarca insanı tehdit etmeye devam ediyor.

Wonder Woman filminin başrolü Gal Gadot, deepfake video’larda yer alan ilk ünlülerden biri oldu.

Birkaç etik mesele

“Deep learning” ve “fake” terimlerinin birleşmesinden doğan “deepfake”, kabaca özetlemek gerekirse, bir insanın suratının ve/veya sesinin yapay zekâ teknolojisiyle manipüle edilmesi anlamına geliyor. Yapay zekâ ve deep learning algoritmalarının hızla güncellenen teknoloji sahnesinde pek yeni olmadığı düşünülürse, deepfake meselesinin bilhassa şu sıralar gündemde olmasını neye yormalıyız? Bu sorunun cevabı, şüphesiz, potansiyel olarak büyük bir tehlike ve etik bir dilemma teşkil eden bu teknolojiyi yalnızca teknoloji gurularının değil ortalama insanın da erişimine açan araçların artışında yatıyor.

Snapchat’in virale dönüşen Face Swap’ini veya kısa süre önce tüm dünyayı kolektif bir yaşlanma çılgınlığına sürükleyen FaceApp’i bir kenara bırakalım… İnternet kullanıcılarının yüzlerini mobil uygulamalara açmalarına alışkınız. Ancak, bir uygulamanın, sizden başka birinin üzerinizdeki kıyafetleri rızanız olmadan çıkarmasına vesile olması etik bir tartışma çerçevesinde ele alınmayı hak ediyor. Virale dönüşmesinin ardından dünyanın kendileri için henüz hazır olmadığı gerekçesiyle faaliyetlerini durduran DeepNude uygulaması, teknoloji ile pornografiyi buluşturan pek çok teşebbüsten yalnızca biri. Tercih etmediğiniz bir çıplaklığa mahkûm olmanın yapay zekâ teknolojisiyle hayatınıza giren bir haksızlık olduğunu mu düşünüyorsunuz? Naughty America’nın CEO’su Andreas Hronopoulos’un size ufak bir mesajı var: “İnsanlar internetin ilk gününden beri başkalarının fotoğraflarındaki suratlarla oynuyorlardı.” Kullanıcılarının suratlarını “kendi rızalarıyla” yetişkin videolarına yerleştiren uygulamanın CEO’su, ünlülerin başrolünde oldukları bu sahte yapıtların o kadar da yeni bir fenomen olmadığını belirterek ekliyor: “Eğlence sektörünün geleceğinde kişiselleştirme var. Bu teknolojiyi kullanmaya hazır değilseniz, medya sektöründe var olabileceğinizi sanmıyorum.” Görünüşe göre, teknolojiyle gelen bu istismar kimileri için izahını yine teknolojinin kaçınılmazlığında buluyor.

Pek çok ünlü simayı “yetişkin filmleri endüstrisi” yıldızına dönüştüren, pek çok ünsüz simaya intikam videolarında başrol oynatan ve aralarında Mark Zuckerberg, Barack Obama, Donald Trump, Nancy Pelosi ve Vladimir Putin’in de olduğu çok sayıda siyasetçi ve kanaat önderini hedef alan deepfake teknolojisi, insanlığa yalnızca kötülük saçmıyor elbette. Bu teknolojinin de, diğer tüm teknolojiler gibi, kötülük için olduğu kadar iyilik için de kullanıldığı durumlar var. Kanadalı start-up Lyrebird ile ALS Foundation işbirliğinden doğan Project Revoice bunun bir örneği. Konuşma yetisini kaybeden ALS hastalarına yapay zekâ desteğiyle ses olan inisiyatifin bir benzeri de MIT ve UNICEF imzasını taşıyor. DeepEmpathy adındaki bu proje, Londra ve Tokyo gibi şehirlerin savaş altında alacağı görünümü yapay zekâ ile hayal ederek, savaş bölgelerinden kaçan insanların içinde bulundukları ruh hali ve çaresizliği, savaşı deneyimlememiş olanlara aktarabilmeyi hedefliyor.

DeepEmpathy, derin algoritmaların toplumsal fayda için kullanıldığı en başarılı projelerden biri.

Tartışmalı alanlar

Suratınızın rızanız dışında bir videoda kullanılmasının etik olarak yanlış olup olmadığı üzerine başlayacak bir tartışma çok uzun sürmez. Aynı şekilde, teknolojinin hastalıklara karşı farkındalık yaratmak amacıyla kullanılmasına karşı çıkacak pek kimse olmayacaktır. Öte yandan, yapay zekânın kullanımının gerçekten “tartışmalı” olduğu bazı alanlar var. Ölüyü dirilten yapımlarıyla eğlence sektörü, bu alanlardan biri. 31 Mayıs 2018 tarihinde deepfake ile savaşta ilk yasal adımı atan New York Eyalet Meclisi, A08155 sayılı yasa tasarısıyla bireylerin personalarının onların kişisel mülkleri olduğunu söyleyerek bu personaların dijital replikalarının ticari amaçla kullanılmasının yasadışı bir eylem addedilmesi gerektiğini belirtiyordu. The Motion Picture Association of America (MPAA) tarafından temsil edilen Disney ve NBC Universal gibi şirketler, alınması planlanan bu karara yaratıcılık ve hikâye anlatıcılığı namına haddinden fazla kısıtlayıcı olduğu gerekçesiyle karşı çıktılar. New York Eyaletinin senatörlerine yazdığı bir mektupta şöyle diyordu Disney Hükümet İlişkileri Başkan Yardımcısı Lisa Pitney: “Bu yasa, yürürlüğe girmesi durumunda, bizimkisi gibi şirketlerin gerçek insanlar ve olaylar hakkında hikâyeler anlatma hakkının ve kabiliyetinin önüne geçecek. Kamuoyunun bu hikâyelere karşı bir ilgisi var ve onlara bu hikâyeleri anlatanlar, ABD Anayasasının Birinci Maddesi tarafından koruma altındadır.”

Carrie Fischer’ın ölümünün ardından aktrisin Prenses Lea olarak beyazperdede boy göstermeyi sürdürmesinin etik muhasebesini yapmaya bir dakikalığına ara verip, hayata gözlerini yummuş bir yakınımızla yapay zekâ teknolojisi sayesinde yeniden iletişime geçmemizin ahlaken nasıl bir yansıması olacağını düşünelim. Zira sentetik ses uygulaması Deepsync tarafından belirtildiğine göre, uygulamayı kullananlardan bazıları vefat etmiş aile üyeleriyle yeniden iletişime geçmek istiyor. Büyük bir özlem ve sevginin tezahürü olarak yorumlanabilecek bu talep, aynı zamanda, yas sürecinin aşılmasının önüne geçerek hayatta kalan aile üyesini gerçek hayattan tamamen koparabilecek güce sahip olması nedeniyle deepfake çerçevesinde şekillenen etik tartışmalarda ayrıcalıklı bir yeri hak ediyor.

Gözün gördüğünü unutmak

Deepfake teknolojisinin geldiği noktayı gözler önüne sermek için Vladimir Putin’in yüzünü kullandığı bir deepfake videosu hazırlayarak geçtiğimiz yıl gerçekleşen MIT konferansında paylaşan Güney Kaliforniya Üniversitesi Bilgisayar Bilimi Bölümü Öğretim Görevlisi Doçent Doktor Hao Li, CNBS’ye yaptığı açıklamada meselenin geleceğini “Yakında, deepfake teknolojisi, sahte içerikleri gerçeğinden ayırt edemeyeceğimiz bir noktaya ulaşacak. Dolayısıyla, başka tür çözümler aramak zorundayız” sözleriyle özetliyor. Ancak gözün gördüğünü unutmanın pek kolay olmadığı da bir gerçek. Bir video, daha sonra sahte olduğu ortaya çıksa dahi, akıllarda “gerçek” olarak yer etmeye uzun süre devam edebilir. Sıradan insanların sosyal hayatını olduğu kadar marka yüzlerinin, meşhur simaların kariyerlerini de yerle yeksan edebilecek güçte bir yanılsamadan söz ediyoruz. Üstelik bu yanılsama ters yönde de gerçekleşebilir, deepfake teknolojisinin mükemmelleşmesiyle, gerçek bir videonun “sahte” olduğu iddia edilebilir. Doğru ile yalanın, gerçek ile sahtenin ayrımının giderek zorlaşacağı bir düzene doğru giderken yapılması gereken şey gözün gördüğünü ikinci bir bakışla doğrulamak ve başkalarının ahlak bekçiliğine soyunmayı bırakarak istismar videolarına gösterilen rağbeti azaltmak olabilir belki de.

Yazı: Gazeteci Arzu Nilay Kocasu

Benzer Yazılar

Yaşamımızdaki fizik: Renklerin büyülü dünyası

Ad Hoc

Zaman, mekân ve engel tanımayan sanat

Ad Hoc

İklim krizinde Akdeniz ormanları

Ad Hoc