ABD merkezli Wired dergisi, yapay zeka destekli arama motorlarının ırkçı içerikleri yaygınlaştırdığını ortaya koyan bir makale yayımladı. Araştırmaya göre, Google, Microsoft ve Perplexity gibi şirketlerin yapay zeka sistemleri, beyazların genetik üstünlüğünü savunan, bilim dışı verilere dayalı yanıtlar üretiyor.
Bu iddialar, İngiltere merkezli “Hope Not Hate” grubunun araştırmacısı Patrik Hermansson’ın çalışmalarına dayanıyor. Hermansson, “Pakistan IQ” ya da “Sierra Leone IQ” gibi basit aramalarda, Google’ın “AI Overviews” özelliğinin, beyaz üstünlüğünü savunan eski bir veri setine dayalı sonuçlar verdiğini keşfetti. Pakistan’ın IQ’su 80, Sierra Leone’ninki ise 45,7 olarak gösterildi. Ancak bu bilgiler, Nazi sempatizanları tarafından desteklenmiş, bilim dışı bir geçmişe sahip kaynaklardan geliyordu.
Benzer şekilde, Microsoft Copilot ve Perplexity gibi sistemlerin de bu içerikleri kullandığı tespit edildi. Bu durum, yapay zekanın tarafsız olmadığı, internetteki yanlış ve önyargılı bilgileri de öğrenip yaydığı gerçeğini bir kez daha gözler önüne seriyor.
Doğru-yanlış süzgeci kullanmadan önüne çıkan her bilgiyi öğreniyor. İnternetteki ırkçı veriler de buna dahil. Bu yüzden yapay zeka sistemleri tarafsız değil, çoğu zaman öğrendiği önyargıyı yansıtıyor.
Tolga Mürtezaoğlu Bilişim Uzmanı
Google, yanlış verilerin kaldırıldığını açıklasa da yapay zeka destekli arama motorlarının güvenilirliği tartışma konusu olmaya devam ediyor. Bu sistemler bilgi mi sunuyor, yoksa önyargıları mı pekiştiriyor? AI Overviews ırkçı verileri mi dayatıyor? Bilişim Uzmanı Tolga Mürtezaoğlu ile detayları anlattı.
“Yapay zeka sistemleri tarafsız değil”
Yapay zeka, teknolojinin geleceği olarak görülüyor. Ancak bilişim uzmanı Tolga Mürtezaoğlu, bu teknolojinin ardındaki tehlikelere dikkat çekiyor. Ona göre, yapay zekanın ırkçı veya önyargılı davranmasının nedeni, öğrenme yöntemindeki temel sorunlarda yatıyor. “ Doğru-yanlış süzgeci kullanmadan önüne çıkan her bilgiyi öğreniyor. İnternetteki ırkçı veriler de buna dahil. Bu yüzden yapay zeka sistemleri tarafsız değil, çoğu zaman öğrendiği önyargıyı yansıtıyor” diyor Mürtezaoğlu.
Bu sorunun örnekleri oldukça çarpıcı. Mürtezaoğlu, MIT araştırmacısı Joy Buolamwini’nin 2018 yılında yaptığı bir çalışmaya atıfta bulunuyor. Buolamwini, yüz tanıma algoritmalarını test ederken siyahi kadınların doğru tanınmadığını fark etmişti. Hatta kendi yüzünü sisteme tanıtabilmek için beyaz bir maske takmak zorunda kalmıştı. Bu durum, algoritmik önyargılara karşı güçlü bir mücadeleyi başlattı ve Algorithmic Justice League (AJL) gibi girişimlerin doğmasını sağladı.
“Siyahi hastaların semptomları hafife alınabiliyor”
Ancak sorun sadece yüz tanımada değil. Mürtezaoğlu, Twitter’ın bir dönem fotoğrafları işlerken beyaz insanları öne çıkardığını, siyah kadınları ev hanımı, siyah erkekleri ise apartman görevlisi veya potansiyel suçlu olarak sınıflandırdığını hatırlatıyor. Sağlık sektöründe bile benzer problemler görülebiliyor; bazı teşhis algoritmaları, siyahi hastaların semptomlarını hafife alabiliyor.
Bir diğer büyük tehlike ise yapay zeka sistemlerinin zaman zaman “halüsinasyon” görmesi. Bu, sistemlerin yanlış bilgileri doğru gibi algılaması anlamına geliyor. Mürtezaoğlu, bu duruma dikkat çekerken çarpıcı bir örnek veriyor:
“Sağlıklı beslenme önerisi isteyen birine, yapay zeka içerdiği mineraller yüzünden her gün bir kaya parçası yemesini tavsiye edebiliyor. Çünkü duygusu, ahlakı veya etiği yok. Veriler arasında bağlantı kurarken tamamen mantıksız sonuçlara varabiliyor.”
“Afrika ülkelerinin zeka seviyelerini düşük gösteren yanıtlar veriyor”
Yapay zeka, internette yaygın olarak bulunan bilgileri kullanıyor. Eğer bir konu hakkında yanlış veya ırkçı bilgiler akademik makalelerde dahi sıkça yer almışsa, yapay zeka bunu doğru olarak algılıyor. Mürtezaoğlu, bazı yapay zeka modellerinin Afrika ülkelerinin zekâ seviyelerini düşük gösteren yanıtlar verdiğini belirtiyor. Ancak burada sorumluluğun yapay zekada değil, ona yanlış bilgileri öğreten sistemlerde olduğunu vurguluyor.
Yanlılık da yapay zekayı güvensiz hale getirebilir
Bu tür sorunlara karşı Algorithmic Justice League gibi girişimler büyük önem taşıyor. Mürtezaoğlu, bu girişimlerin algoritmaların daha adil ve tarafsız çalışması için bir kalkan görevi gördüğünü ifade ediyor. Ancak, teknolojinin daha büyük bir sorunu var: Yanlılık.
Mürtezaoğlu, sosyal medya şirketlerinin Filistin paylaşımlarını sansürlemesi gibi durumlara dikkat çekiyor ve bu tür taraflı uygulamaların yapay zekayı daha da güvensiz hale getirebileceğini söylüyor.
Mürtezaoğlu’na göre, yapay zeka ile ilgili en büyük tehlike, bu teknolojinin henüz olgunlaşmadan hayatımıza girmiş olması. “Rekabet yüzünden erken tanıştırıldık” diyor ve ekliyor:
“Eğer etik, adalet ve şeffaflık ön planda tutulmazsa, yapay zeka gelecekte daha büyük sorunlara yol açabilir.”
Sonuç olarak, Tolga Mürtezaoğlu’nun uyarıları, yapay zekanın güvenli ve önyargısız çalışabilmesi için dikkatli bir denetim ve geliştirme sürecine ihtiyaç duyduğumuzu bir kez daha ortaya koyuyor. Bu sorun çözülmezse, teknoloji ile insanlık arasındaki güvenin derinden sarsılabileceği açık.
Kaynak : TRT