Yapay zeka destekli arama motorlarının, bilimsel geçerliliği olmayan, hatta ırkçı söylemleri destekleyen verileri kullanıcılarına sunduğu ortaya çıktı. Google, Microsoft ve Perplexity gibi dev şirketlerin yapay zeka destekli arama motorları, çürütülmüş ırkçı araştırmalara yer vererek, ırkçılık ve dezenformasyon tehlikesini artırıyor. Hope Not Hate adlı kuruluşun araştırmacısı Patrik Hermansson, yaptığı bir araştırma ile bu endişe verici durumu gözler önüne serdi.

İNSAN ÇEŞİTLİLİĞİ VAKFI VE PİONEER FUND'IN GÖLGESİ

Hermansson'ın araştırması, İnsan Çeşitliliği Vakfı ve onun selefi olan Pioneer Fund gibi tartışmalı kuruluşların etrafında şekilleniyor. Irk bilimi üzerine çalışan bu vakıflar, geçmişte "beyaz ırkın üstünlüğü" gibi bilim dışı iddiaları desteklemeleriyle biliniyor. Hermansson'ın çalışması, bu kuruluşların etkisinin günümüz yapay zeka algoritmalarına nasıl yansıdığını gösteriyor.

SearchGPT ile arama daha kolay hale geldi SearchGPT ile arama daha kolay hale geldi

GOOGLE'IN AI OVERVİEWS VE IRKÇI VERİLER

Hermansson, Google’ın "AI Overviews" özelliğini kullanarak çeşitli ülkelerin IQ'ları hakkında arama yaptı. Sonuçlar ise şaşırtıcıydı. Pakistan, Sierra Leone ve Kenya gibi ülkeler için gösterilen düşük IQ skorları, bilimsel geçerliliği olmayan, ırkçı bir veri setine dayanıyordu. Bu veri seti, Richard Lynn adlı tartışmalı bir bilim insanı tarafından oluşturulmuş ve beyaz üstünlükçü gruplar tarafından sıkça kullanılıyordu. Google yetkilileri ise bu konuda tatmin edici bir açıklama yapmaktan kaçındı.

MİCROSOFT COPİLOT VE PERPLEXİTY'DE BENZER SORUNLAR

Hermansson’ın araştırması, sorunun sadece Google ile sınırlı olmadığını ortaya koydu. Microsoft Copilot ve Perplexity gibi diğer yapay zeka destekli arama motorları da IQ ile ilgili sorularda benzer şekilde Lynn'in çalışmalarına referans verdi. Bu durum, yapay zekanın ırkçılığı nasıl yaygınlaştırabileceği konusunda ciddi endişeler yaratıyor. Microsoft, "Copilot", birden çok kaynaktan bilgi derlediğini belirterek konuyu geçiştirmeye çalıştı.

RİCHARD LYNN'İN VERİLERİ VE IRKÇI GRUPLAR

Lynn’in tartışmalı verileri, uzun süredir aşırı sağcı ve beyaz üstünlükçü gruplar tarafından kendi ırkçı ideolojilerini desteklemek için kullanılıyor. Uzmanlar, yapay zekanın bu tür verileri yaygınlaştırmasının, toplumsal radikalleşme riskini artırdığı konusunda uyarıyor. Özellikle Brunel Üniversitesi'nden Rebecca Sear, Lynn'in verilerinin bilimsel titizlikten yoksun olduğunu ve ırkçı bir gündemi desteklediğini vurguluyor. Sear, Lynn'in Angola ve Eritre gibi ülkelerin IQ skorlarını, küçük ve temsili olmayan örneklem grupları üzerinden hesapladığını belirtiyor. Ayrıca, Lynn’in metodolojisindeki eksiklikler ve verilerindeki çarpıtmalar, çalışmasının güvenilirliğini ciddi şekilde zedeliyor.

YAPAY ZEKANIN SORUMLULUĞU

Bu olay, yapay zeka teknolojilerinin tarafsız olmadığını ve ırkçı önyargıları pekiştirebileceğini bir kez daha ortaya koydu. Yapay zeka şirketlerinin, algoritmalarını eğitirken kullandıkları verileri dikkatle incelemesi ve ırkçı içeriği engellemek için daha fazla çaba göstermesi gerekiyor. Aksi takdirde, yapay zeka, toplumsal eşitsizlikleri derinleştirmek ve ayrımcılığı körüklemek için bir araç haline gelebilir.

Kaynak: HABER MERKEZİ