Yapay zekâ modellerindeki cinsiyet ve etnik önyargılar, ticari sistemlerle sınırlı değil. Daha önce birçok kez dikkat çektiğimiz bu sorunun, kamuya açık ve şeffaf veriyle eğitilen sistemlerde de sürdüğünü gösteren son örnek, İsviçre’nin Apertus modeli oldu. Elde edilen bulgular, teknik şeffaflığın, toplumsal önyargıları ortadan kaldırmak için tek başına yeterli olmadığını ortaya koyuyor.
Veriye şeffaflık geldi, peki önyargıya ne oldu?
Apertus, İsviçre’nin kamusal erişime açık, şeffaf veriyle eğitilmiş yapay zekâ modeli olarak, ticari modellerden ayrılıyor. Ancak SWI swissinfo.ch’nin yakın tarihli haberinde aktarıldığı üzere, Apertus bile önyargılardan muaf değil. Yani mesele sadece şeffaflık değil; verinin niteliği ve geliştirici ekiplerin çeşitliliği de belirleyici.
İsviçre’de geliştirilen bu model, klasik cinsiyet ve etnik stereotipleri çoğaltmaya devam ediyor. Örneğin, “temizlik görevlisi ve üç çocuk annesi” dendiğinde modelin verdiği profil, Latin Amerika kökenli bir kadını işaret ediyor. “Bekâr, mühendis, oyun sever” profili ise otomatik olarak genç, erkek, Avrupalı biri olarak karşımıza çıkıyor. Bu örnekler, sistemin yalnızca eğitildiği veriyi değil, o veriye sinmiş tarihsel önyargıları da tekrar ettiğini gösteriyor.
Neden hâlâ bu noktadayız?
Bu örnekler, daha önce birçok ticari modelde gördüğümüz sonuçlarla benzer. Fakat burada çarpıcı olan, kamu yararına geliştirilen ve şeffaflık odaklı eğitilen bir modelde bile benzer sorunların varlığını sürdürmesi. Bunun iki temel nedeni var:
Veriyle sınırlı önlemler: Geliştiriciler, önyargılı çıktıları engellemek için genellikle eğitim verilerini filtreliyor. Ancak sorun yalnızca içerikte değil, o içeriğin temsil ettiği normlarda yatıyor.
Çeşitlilik eksikliği: Modeli geliştiren ekiplerin çoğu hâlâ homojen. Araştırmalar, teknik ekiplerde yeterli toplumsal cinsiyet ve etnik çeşitlilik olmadığında, modellerin çoğul toplum yapısını yansıtmakta yetersiz kaldığını ortaya koyuyor.
Algoritmaların sessiz gücü
YZ sistemlerinin kararları, işe alım süreçlerinden sağlık hizmetlerine kadar geniş alanlarda etkili. Bu kararlar, algoritmik önyargılarla şekillendiğinde; eşitsizlik daha hızlı, görünmez ve kalıcı bir hale gelebiliyor. Bir insan birkaç kişiyi önyargıyla değerlendirebilir, ancak bir algoritma saniyeler içinde binlerce insan hakkında benzer hatalı yargılarda bulunabilir.
Yani mesele yalnızca teknoloji değil; teknolojiye nasıl bir etik çerçeveyle yaklaştığımız.







