Manşet Teknoloji

Toplumsal yapay zekâ biraz bekleyebilir

Toplumsal yapay zekâ biraz bekleyebilir

Akıllı bir makinenin satrançta büyük marifetler sergilemesi, satranç oynadığının bilincine sahip olduğu ya da özbilince sahip olduğu anlamına gelmiyor. Aynı şekilde, nedensellik ilişkisi kurabildiği, gerçekleşen olguların ardındaki nedenleri kavrayabildiği anlamına da gelmiyor. Yapay zekâ teknolojileri yıllar içinde sahip oldukları potansiyellere yönelik ufuk açıcı sonuçlar ortaya koydular; özellikle imge ve ses tanıma çalışmalarında etkileyici ve hata payı düşük çıktılar elde etmeyi başardılar. Ancak yapay zekânın büyük veri havuzları içindeki belirli kalıpları tanıyabilmenin ötesine geçtiğini iddia edebilmek için henüz erken. En azından MIT bünyesindeki Center for Brains Minds & Machines profesörü Josh Tenenbaum ve araştırmacılar Kexin Ti ve Chuang Gan son deneyleriyle bu çıkarıma ulaşıyorlar.

Kompleks sorularda performans düşüyor

Tenenbaum ve ekibinin gerçekleştirdiği deney, basit bir tasarıma dayanıyor. Yapay zekâ sistemleri için bir çeşit zekâ testi kurgulayan araştırmacılar, teste katılan AI programlarına içinde hareketli nesnelerin bulunduğu sade bir sanal dünya sunuyorlar ve onlardan birtakım sorulara yanıt vermelerini bekliyorlar. Deneyde tanıdık bir model kullanılıyor. AI sistemlerinin belirli bir imgeyi tanıyabilmesi için, öncesinde bu imgenin etiketlenmiş yüzlerce görüntüsüyle beslenmesi gerekiyor. Tenenbaum da çalışmasını bu tasarıma dayandırıyor ve yapay zekâya sorulan sorular ve onun verdiği yanıtlar etiketleniyor. Deney sonucunda, gelişmiş makine öğrenmesinin kör noktası ortaya çıkıyor: Belirli bir objenin rengi sorulduğunda verilen yanıtlar yüzde 90 oranında doğruyken, “Topun küple çarpışmasının nedeni neydi?” ya da “Bu objeler çarpışmasaydı ne olurdu?” gibi sorulara verilen yanıtların doğruluğu yüzde 10 seviyesine geriledi.

Nedensellik her alanda önemli

Derin öğrenme ve makine öğrenmesi modellerine dayalı akıllı teknolojiler, yapay zekâ çalışmalarında çığır açmaya devam etse de, nedensellik konusunda makineler insan yetkinliğine ulaşabilmekten fazlasıyla uzak. Bilgisayar bilimlerinin en prestijli ödülü sayılan Turing Ödülü’nün geçtiğimiz yılki kazananı Yoshua Bengio’nun da belirttiği gibi, yapay zekânın nedensel bağlantılar kurabilme yetisi gelişmedikçe bu teknolojilerin ilerlemesi belli başlı endüstriyel alanlarla sınırlı kalacak. Örneğin, robotlara yakınlarındaki nesneleri tanımayı, onları kaldırmayı ya da hareket ettirmeyi öğretebilirsiniz. Ancak bu robotların programlamasına, belirli durumların bu nesnelerin çarpmasına, düşmesine ya da kırılmasına yol açabileceğini fark etmesini sağlayacak muhakeme yetisi eklenmezse, olası senaryolara uyum sağlamakta ya da bağlamları yorumlamakta güçlük çekmeye devam edecek. Sürücüsüz araçlardan medikal uyarlamalarına kadar bu muhakeme yetisinin gelişmesine ihtiyaç duyan yüzlerce alan var. Bu alanlar arasında en kritik olanlardan biri de kamu politikaları…

Kamu sağlığından genç kuşakların eğitimine, kadın ya da aile hizmetlerinin belirlenmesinden istihdam politikalarına kadar pek çok konuda kamu yetkilileri toplum bilimcilerinin çalışmalarını esas alırlar. Bireylerin hayatlarının ne tür faktörlerle şekillendiğinin anlaşılması ve ideal koşulların oluşması için kamusal hayata uygun müdahalelerin gerçekleştirilebilmesi için toplum bilimcilerin sundukları içgörüler büyük bir fayda sağlar. Ancak son yıllarda toplum bilimcilerin istatistiklerinin yanı sıra daha öngörülü tahminleri nedeniyle, algoritmalardan da yararlanmaya başladı kamu politikalarını oluşturanlar. Özellikle de suç oranlarının azaltılması, bir çocuğun okul başarısının sağlanması ya da aile içi şiddetin önlenmesi gibi alanlarda. Ancak Princeton Üniversitesinin yakın zamanda yayınladığı bir makale bu koşulsuz güvenin risklerden muaf olmadığını ortaya koyuyor.

Makaleye göre, Princeton Üniversitesi’nden üç sosyolog, yüzlerce araştırmacıyı 4 bin aileye yönelik 13 bin farklı veriyi kapsayan bir havuzdan çocuklar, ebeveynler ve aileler için altı olası yaşam sonucu hakkında tahminler yürütmeye davet ediyor. Araştırmacılara sunulan veriler, makale yazarlarından Sara McLanahan’ın “Fragile Families and Child Wellbeing” çalışması kapsamında 15 yıldır sürdürdüğü sosyolojik bir araştırmadan derleniyor. Orijinal araştırma 2000 yılında büyük ABD kentlerindeki hastanelerde doğan çocukların, rastgele seçilmiş ailelerine yönelik yürütülmüş ve çocukların 1, 3, 5, 9 ve 15 yaşlarındaki koşullarını kaydetmiş.

Bu verilerin bir kısmı yüzlerce araştırmacı, bilgisayar mühendisi, istatistikçi ve bilgisayar sosyoloğuyla paylaşılarak, katılımcılardan farklı teknikler kullanarak çocukların not ortalaması, eğitim hayatlarında gösterdikleri azim ya da içinde yaşadıkları hanenin yoksulluk durumu gibi belli başlı alanlarda yaşam sonucu senaryosu kurgulamaları isteniyor. Katılımcıların öne sürdükleri olası senaryoların hiç biri ise gerçek sonuçlara yaklaşamıyor. Makine öğrenmesi tekniği kullananların sonuçlarıysa, basit metodolojileri tercih edenlerin çıktılarından çok daha isabetsiz kalıyor.

Nesnel ve öznel yorumlar arasında

Bazı araştırmacılara göre, akıllı teknolojilerin hatalı sonuçlar üretmesi, algoritmaların kusurlu tasarımından ziyade yapay zekâya yöneltilen soruların taraflı, öznel hatta kimi zaman ayrımcı oluşundan kaynaklanıyor. Başarı, performans, azim, kararlılık gibi modern kavramlar, hali hazırda maruz kaldığımız politik/ ekonomik paradigmanın yüksek beklentilerinin oluşturduğu, tarihsel nosyonlar. Dolayısıyla objektif değiller. Hatta New York Üniversitesi AI Now Institute direktörlerinden Rashida Richardson, bu sübjektif yargıların belirli bir etnik kimlik (beyaz, orta sınıf, genellikle erkek) dikkate alınarak öne sürüldüğünü, dolayısıyla akıllı teknolojilere emanet edilmek şöyle dursun, toplum bilimlerinde bile kullanılmasının sakıncalı oluşuna dikkat çekiyor.

Yapay zekâ teknolojilerinin toplumsal alanlardaki uyarlamalarını çalışan sivil toplum kuruluşu Partnership on AI’ın adalet ve şeffaflık bölümünün başındaki Alice Xiang için ise Sara McLanahan’ın deneyinin sonuçları şaşırtıcı olmaktan uzak zira ceza hukuku başta olmak üzere risk öngörüsü üzerine kurulu pek çok algoritmik tasarımın ulaşabildiği en yüksek doğruluk payı yüzde 60 ila 70 ile sınırlı.

Hal böyleyken, akıllı teknolojilerin kamusal durumlardaki bu düşük performansı iyileştirilene dek benimsenecek en doğru strateji karması çift yönlü görünüyor. İlki, teknoloji dışı bir sorumluluğu içeriyor ve işe koşulan algoritmaların mümkün olduğunca etik ve şeffaf süreçlerden geçerek kurgulanmasını gerektiriyor. Diğeri ise, teknolojik alana dair. Akıllı teknolojilerde nedensellik ve bağlamsal yorumlama yetisi mümkün olduğunca güçlendirilmeli.

Benzer Yazılar

Tek-Gıda-Loji

Ad Hoc

İstanbul’un geridönüşüm işçileri: Çöpün sahibi kim?

Ad Hoc

Geriye sadece hatıralar kalır

Ad Hoc