İngiltere'deki belediyelerin yarısından fazlası, sosyal hizmet uzmanlarının iş yükünü azaltmak için yapay zeka araçlarını kullanıyor. Ancak, Londra Ekonomi ve Siyaset Bilimi Okulu (LSE) tarafından yapılan yeni bir araştırma, bu araçların kadınların sağlığını küçümsediğini ortaya koydu. Araştırmada, Google'ın yapay zeka aracı Gemma'nın, aynı vaka notlarını erkek ve kadın hastalar için farklı şekilde özetlediği görüldü. Erkek hastaların tanımlarında "engelli", "yapamayan" ve "karmaşık" gibi ifadeler kadınlara göre çok daha sık kullanıldı. Bu durum, kadınların benzer sağlık ihtiyaçlarının göz ardı edildiği veya daha az ciddi terimlerle tanımlandığı anlamına geliyor. Araştırmacılar, bu yapay zeka önyargısının, kadınların daha az bakım almasına yol açabileceği konusunda uyarıda bulundu. Araştırmada, 617 yetişkinin gerçek vaka notları kullanıldı ve bu notlar, sadece cinsiyetleri değiştirilerek farklı yapay zeka modellerine girildi. 29.616 özet çiftinin analizi sonucunda, özellikle Gemma modelinin belirgin bir cinsiyet temelli eşitsizlik yarattığı tespit edildi. Meta'nın Llama 3 modeli ise cinsiyete göre farklı dil kullanmadı.
Yapay Zeka'daki Cinsiyet Önyargısı: Bir Tehdit
LSE'nin Bakım Politikası ve Değerlendirme Merkezi'nde araştırmacı olan Dr. Sam Rickman, bu durumun kadınlara eşit olmayan bakım hizmeti sağlanmasına yol açabileceğini belirtti. Rickman, yapay zeka sistemlerinin şeffaf olması, önyargı açısından titizlikle test edilmesi ve sağlam bir yasal denetime tabi tutulması gerektiğini vurguladı. Araştırmacılar, düzenleyicilerin algoritmik adaleti önceliklendirmek için yapay zeka modellerindeki önyargının ölçülmesini zorunlu kılmaları gerektiğini düşünüyor. Bu durum, sadece İngiltere ile sınırlı değil; ABD'de yapılan bir araştırmada da farklı sektörlerdeki 133 yapay zeka sisteminin yaklaşık yüzde 44'ünün cinsiyet önyargısı gösterdiği tespit edildi. Bu durum, yapay zeka sistemlerinin geliştirilmesi ve kullanımı sürecinde önyargının nasıl önlenebileceği konusunda ciddi bir tartışmayı gündeme getiriyor.
Google'ın Gemma Modeli ve Önyargı
Araştırmada dikkat çeken bir nokta, Google'ın Gemma modelinin diğer yapay zeka modellerine göre daha belirgin cinsiyet temelli eşitsizlikler yaratması oldu. Örneğin, aynı vaka notları erkek hasta için "karmaşık bir tıbbi geçmişi olan" şeklinde özetlenirken, kadın hasta için "kısıtlamalarına rağmen bağımsız" şeklinde özetlendi. Bu farklılık, kadın sağlığı konusunda yapay zeka sistemlerinde var olan önyargıyı açıkça gösteriyor. Bu durumun, kadınların sağlık ihtiyaçlarının doğru değerlendirilmesini ve uygun bakım hizmetlerinin alınmasını engelleme riski taşıdığı vurgulanıyor. Araştırmacılar, Gemma modelinin ilk neslinin test edildiğini ve daha gelişmiş modellerin daha iyi performans göstermesini beklediklerini belirtiyorlar. Ancak, bu durum, mevcut yapay zeka sistemlerindeki önyargının ciddiyetini ve çözüm bulunması gerekliliğini vurguluyor.
Çözüm ve Önlemler
Bu sorunların üstesinden gelmek için, yapay zeka araçlarının geliştirme aşamasında cinsiyet önyargısının ortadan kaldırılması ve şeffaflık ilkesinin benimsenmesi gerekiyor. Ayrıca, bu araçların kullanımıyla ilgili düzenlemeler ve denetimler sıkılaştırılmalı. Yapay zeka sistemlerinin sağlık alanında kullanımı giderek artarken, bu tür önyargıların tespiti ve giderilmesi, adil ve etkili sağlık hizmetlerinin sunulması için hayati önem taşıyor. Yapay zeka sistemlerinin eşitlikçi olması için kapsamlı çalışmalar yapılmalı ve olası önyargılar dikkatlice değerlendirilmelidir. Bu konuda düzenleyici kurumların ve yapay zeka geliştiricilerinin sorumluluk alması ve etkili önlemler geliştirmesi gerekiyor.