Manşet Teknoloji

Trollere de işsizlik yolu göründü

Son birkaç yıldır “robot gazetecilik” diye tabir edilen ve yapay zekâ tarafından üretilen veri bazlı haberlerin medya endüstrisine güçlü bir şekilde entegre edildiğini görüyoruz. Reuters, New York Times, The Guardian ve Bloomberg gibi pek çok güçlü medya kurumu hız ve güvenilirlik adına özellikle bol miktarda veri analizi gerektiren haberi yapay zekânın eline bırakıyor. Yapay zekâyı sistemine ilk entegre eden kurumlardan olan Bloomberg’in programının adı Cyborg. Cyborg, şirketlerin finansal verilerini bir finans muhabiri titizliğiyle haberleştiriyor. Forbes’un Bertie’si ise gazetecilerin haberlerinin ham hallerinin oluşturulmasını sağlıyor. Washington Post’un ödüllü robotu Heliograf da gazetecilerin daha doğru ve hızlı haber üretmelerine destek verecek şekilde editör ekibine eklemlenmiş durumda.

Söz konusu yazılımlar o kadar gelişti ki, arkasında insan mı yoksa makine zekâsı mı var, anlamak bir hayli zor. Her ne kadar makine zekâsının medyada kendine edindiği yerin işsizliği artırdığı gibi argümanlar olsa da, araştırmacı gazetecilik için daha fazla zaman yarattığı tezini savunanların sayısı da hiç az değil. Sonuç olarak, makine zekâsıyla yaşamaya alışmak ve kendimizi her anlamda hazırlamak zorundayız.

Artık yapay zekâ yazılımları sadece veri bazlı habercilikte değil; gerçeğe ulaşmanın önünde en büyük engel olmaya başlayan yalan habercilikte de önemli bir aktör olarak karşımıza çıkacağa benziyor. Foreign Affairs dergisine göre, Kaliforniya merkezli bir yapay zekâ araştırma kuruluşu olan Open AI’nın oluşturduğu GPT-2 isimli bir yapay zekâ sistemi New York Times’taki bir makaleyi baz alarak, yalan haber veya kasıtlı dezenformasyon denemesinde bulundu. FP’ye göre, “Proje çerçevesinde yürütülen kasıtlı yalan haber denemesi, suni dezenformasyonun, dış politikanın karmaşık meseleleri hakkında inandırıcı haberler oluşturup oluşturamayacağını görmek amacıyla yapıldı ve okuyucuların geri bildirimleri ışığında değerlendirildiğinde, sonuçlar oldukça başarılı.”

Makalede, bazı durumlarda yazılımın oluşturduğu metnin, insan eliyle yazılan metinden bir farkı olmadığına dikkat çekilmiş. GPT-2 tarafından kasıtlı olarak üretilen yanlış bilgi veya yalan haber girişiminin başarısı, artık otomatik yapay dezenformasyon süreçlerine hazır olmamız gerektiğinin sinyallerini veriyor. Devletlerin dış politikayı karıştırmak için özellikle kriz dönemlerinde yalan haber uzmanı yapay zekâ robotlarını devreye soktuklarını hayal etmek ister misiniz? Bilimkurgu dediğimiz olgu, giderek hayatın kendisi mi olmaya başlıyor yoksa?

Yalana ilave detaylar ekleyebiliyor

Teknolojinin kötüye kullanılma olasılığı endişesi nedeniyle OpenAI’daki yazılım mühendislerinin GPT- 2’nin tam sürümünü kamuoyuna sunmadıklarını, daha az risk içeren hafifletilmiş versiyonunu kullanıcılarla tanıştırdığını biliyoruz. Ancak bu önlem bile yeterli olmayabilir. Çünkü GPT-2’ye verilen komut, sahte haber yazısı gibi kurmaca bir olaydan bahsederse, yazılımın kendisi bu kurmaca olayı gerçekçi göstermek için ilave detaylar ve alıntılar oluşturabiliyor.

Tabii böylece gün be gün yapay zekânın gerçeğe dayanmayan, suni metinleri oluşturma teknolojisi daha da gelişmiş olacak. Ve dezenformasyon daha ucuz, yaygın ve otomatik hale gelecek. Yapay zekânın yalan haber dünyasında sivrilmesiyle beraber, sosyal medya trollerinin kendilerine yeni bir meslek edinmeleri gibi oldukça üzücü (!) sonuçlar ortaya çıkması da kaçınılmaz.

Şaka bir yana, yapay zekânın hızlı ve ucuz bir şekilde üretebildiği yalan veya manipülatif içerikler dijital dünyada çoğaldığında ne olacak? Ya insanlar okudukları her şeye inanacak ve yalanların yönlendirdiği bir hayatı yaşayacaklar ya da okudukları hiçbir şeyi önemsemeyip, inanmayacaklar. Bu nedenle, medya ve kurumlar nezdinde “itibarsızlaşma” önümüzdeki 10 yılın en önemli krizi olabilir.

Yazı: Gazeteci Şenay Yıldız

Benzer Yazılar

Mindfulness yeteri kadar devrimci mi?

Ad Hoc

Geleceğin suçları

Ad Hoc

Çeşitliliğe kucak aç ya da…

Ad Hoc