Genel

Algoritmik radikallikler

İnternet teknolojileri ve toplum ilişkisi üzerine çalışan North Carolina Üniversitesi akademisyenlerinden Zeynep Tüfekçi, 2018 yılında New York Times’da yayınlanan “YouTube: Great Radicalizer” başlıklı görüş yazısında ilginç bir fenomene rastladığını belirtiyordu. 2016 ABD Başkanlık seçimlerinde Donald Trump’ın seçmen kitlesine hitabını analiz etmeye çalışan akademisyen birkaç miting videosu izleyecek ve aklındaki bazı soruların yanıtını araştıracaktı. Videoları izledikçe YouTube’un kendisine beyazların üstünlüğüne yönelik ya da Yahudi Soykırımı’nı reddeden içerikler önermeye başladığını gördü Tüfekçi. Durumun yalnızca aşırı-sağa dair bir durum olup olmadığını anlamak içinse, bu kez bambaşka bir hesap açıp, Hillary Clinton ve Bernie Sanders videoları izlemeye başladı. Benzer yönlendirmeler yine gerçekleşti. Ancak bu defa öneriler listesinde, sol eğilimli komplo teorileri vardı. 11 Eylül’ün ardında Amerikan hükümeti olduğunu iddia eden ya da bilinmeyen istihbarat örgütlerinin varlığından dem vuran videolardı bunlar. Benzer durum politik olmayan içerikler için de geçerliydi; vejetaryenlikle ilgili başlangıçlar veganlığa, koşu videolarıysa ultra maratonlara varıyordu.

Google ve YouTube bağımsız araştırmacılara veri sağlamakta biraz çekinceli davrandığı için bunun rastlantısal mı yoksa objektif bir durum mu olduğu konusunda emin olmadığını belirten Tüfekçi, yazıyı kaleme almasından birkaç hafta önce Wall Street Journal’ın eski bir YouTube çalışanı Guillaume Chaslot’un yardımlarıyla hayata geçirdiği bir araştırmada durumun netlik kazandığını yazıyordu. Chaslot, YouTube’un öneride bulunan algoritmalarının tasarımında çalışıyordu ve yıllar önce kullanıcıların platform üzerinde geçirdikleri zamanı artırmak için kullanılan taktiklerin endişe edici olduğunu Google yönetimine de bildirmişti (Chaslot’un işine 2013 yılında son verildi). Araştırma, YouTube’un yıllar içinde bu sorunun düzeltilmesi yönünde adımlar atsa da, bu adımların yetersiz kaldığını doğruluyordu: Ana akım haber kaynaklarından beslenenlerin aşırılık dozu yüksek videolara yönlendirilmesi -ya da örneğin nezle aşısı üzerine bilgi arayanların kendilerini aşı karşıtlığının özendirildiği videoları izlerken bulması- muhtemeldi.

Bilme arzusu nelere kadir?

Platform, Tüfekçi’nin sözleriyle, “görünenin ardındakini merak etmek, daha da derine inmek yönündeki insana yönelik doğal bilme arzusunu sayısal olarak sömürüyor ve bilgi arayanları yanlış bilgilerin ve aşırı görüşlerin cirit attığı -bu kez bambaşka- derinliklere sürüklüyordu.”

Ocak ayı sonunda Barselona gerçekleşen “Conference on Fairness, Accountability, and Transparency”de sunulan bir makale yıllardır şüphe duyulan bu duruma netlik kazandırmış oldu. Swiss Federal Institute of Technology Lausanne’den bir ekip, konferansta sundukları Auditing radicalization pathways on YouTube” başlıklı makalede araştırmalarından çeşitli bulgular paylaştı. 349 kanaldan paylaşılmış 330 bin 925 videonun analiz edildiği araştırmada, tüm videolar dört kategoriye ayrıldı: Medya (anaakımdan gerçek içerikler), alt-lite (sağ yönelimli olmakla birlikte geleneksel sağ eğilimler taşımayanlar; örneğin beyazların üstünlüğüne inanmamakla birlikte azınlıkların beyazları yerlerinden etmek istediklerini savunan komplo teorilerine inananlar), entelektüel karanlık ağ (aşırı sağın kimi düşüncelerini [pseudo]bilimle rasyonelleştirmeye çalışanlar; örneğin beyazların üstünlüğünü “ırk bilimi” gibi bilimsellik iddiasına sahip metodolojilerle açıklayanlar) ve aşırı sağ (rasyonelleştirmeye ihtiyaç duymaksızın doğrudan beyazların üstünlüğüne inananlar).

YouTube’un radikalleştirdiğine yönelik hipotezin izini sürerek 72 milyonu aşkın yorumu inceleyen ekip, entelektüel karanlık ağ ve alt-lite bölgelerinde yer alan kanalların aşırı sağa yönlendiren bir kapı işlevi gördüklerini ortaya koydu. Her üç bölgenin de giderek ortak hale gelen bir kullanıcı kitlesine sahip olduğunu ve bu kullanıcıların da giderek aşırı hale gelen içeriklere yöneldiğini ve halihazırda aşırı sağ içerikleri tüketen kullanıcıların oldukça yüksek bir kısmının (yüzde 26) geçmişte entelektüel karanlık ağ ve alt-lite içerikler tükettikleri görüldü. Araştırmacılar, alt-lite ya da entelektüel karanlık ağda yorumda bulunan 60 bin kişinin 18 ay boyunca aşırı sağ içeriklere maruz kaldığını da belirtiyor.

YouTube öneri algoritmalarını anlamak için geçtiğimiz yıl Mayıs ve Temmuz ayları arasındaki 2 milyon videoyu ve kanal önerisini de takip eden ekip, alt-lite içeriklerin entelektüel karanlık ağdan kolaylıkla ulaşılabildiğini, aşırı sağ videolarınsa yalnızca kanal önerileriyle erişilebilir olduğunu ortaya çıkarmış. Alt-lite ve entelektüel karanlık ağ içerikleri çok fazla zahmet gerektirmeden bulunabilse de, aşırı sağ videolara ulaşabilmek yeni kullanıcılar için kolay olmuyor. Ancak araştırmacılara göre, YouTube’un algoritmaları belirli anahtar kelimelerle arama yapan kullanıcıları çoğunlukla, giderek şiddetlenen, ekstrem içeriklere yönlendiriyor. Araştırmacılar, YouTube’a yönelik pek çok insanın öncesinde farklı kaynaklardan beslenerek radikalleştiği olasılığının güçlü olduğunu, bununla birlikte algoritmaların radikalleştirmede hatırı sayılır bir rol oynadığının altını çiziyorlar.

YouTube yıllar içinde ifade özgürlüğünü korumak, nefret söyleminin ve yalan haberlerin yayılmasını önlemek adına, bazı kanalları engellemek ve arama ve keşif algoritmalarını değiştirmek gibi pek çok adım attı. Yine de eleştirmenler adımların yetersiz kaldığını düşünüyor. Araştırmanın MIT Technology Review’da da yayınlanması üzerine YouTube’un konuya ilişkin bir açıklama yaptığını da eklemiş olalım. YouTube, yakın zamanda yapılan iyileştirmelerin araştırmada dikkate alınmadığını ve metodolojinin hatalı olduğunu belirtiyor.

Benzer Yazılar

Siyasetin yeşile boyanması: “Marjinal” Yeşiller merkeze yerleşince

Ad Hoc

Herkes influencer olacak mı?

Sencer Uçar

Milyon dolarlık soru: Yapay zekâ dünyayı ele geçirecek mi?

Ad Hoc