Ana Sayfa Arama Galeri Video Yazarlar
Üyelik
Üye Girişi
Yayın/Gazete
Yayınlar
Kategoriler
Servisler
Nöbetçi Eczaneler Sayfası Nöbetçi Eczaneler Hava Durumu Namaz Vakitleri Puan Durumu
WhatsApp
Sosyal Medya

İngiltere’de Yapılan Yapay Zeka Araştırmasının Endişe Verici Sonucu

İngiltere’de yapay zeka konulu araştırmanın sonucunda neler açıklandı?

İngiltere'de yapay zeka konulu araştırmanın sonucunda neler açıklandı?

İngiltere’de yapay zeka konulu araştırmanın sonucunda neler açıklandı?

Yapay Zeka ve Kadın Sağlığı: LSE’den Endişe Verici Bulgular

Londra Ekonomi ve Siyaset Bilimi Okulu (LSE) tarafından yapılan araştırmada, Google’ın yapay zeka aracı “Gemma” kullanılarak aynı vaka notlarının oluşturulması ve özetlenmesi sırasında “engelli”, “yapamayan” ve “karmaşık” gibi ifadelerin erkek tanımlarında kadınlara göre daha sık kullanıldığı tespit edildi. Bu durum, kadınların benzer bakım ihtiyaçlarının daha az ciddi terimlerle tanımlanmasına ve dolayısıyla göz ardı edilmesine neden oluyor.

Cinsiyet Önyargısı ve Yapay Zeka: Eşit Olmayan Bakım Hizmeti Riski

LSE Bakım Politikası ve Değerlendirme Merkezi araştırmacısı Dr. Sam Rickman, yapay zekanın “kadınlara eşit olmayan bakım hizmeti” sunma riskini taşıdığını belirtti. Rickman, “Google’ın modeli özellikle kadınların fiziksel ve zihinsel sağlık ihtiyaçlarını erkeklere kıyasla önemsizleştiriyor. Algılanan ihtiyaçlar temelinde belirlenen bakım miktarı, önyargılı modeller kullanıldığında kadınların daha az bakım almasına yol açabilir” dedi.

Yapay Zeka Modellerinin Kullanımı ve Şeffaflık Sorunu

Yerel yönetimler, sosyal hizmet uzmanlarının iş yükünü azaltmak için yapay zeka araçlarına yöneliyor. Ancak hangi modellerin kullanıldığı, sıklığı ve karar süreçlerine etkileri konusunda net bilgi bulunmuyor. Rickman, “Halihazırda kamu sektöründe yaygın şekilde kullanılan bu araçların adaleti tehlikeye atmaması gerekiyor” diyerek, yapay zeka sistemlerinin şeffaflık, titiz testler ve yasal denetim altında olması gerektiğini vurguladı.

Algoritmik Adalet ve Düzenleyici Önlemler

Araştırma raporu, uzun süreli bakımda kullanılan büyük dil modellerinde (LLM) önyargının ölçülmesinin zorunlu kılınması ve algoritmik adaletin önceliklendirilmesi gerektiğini savunuyor. Makine öğrenimi tekniklerinin insan dilindeki ırk ve cinsiyet önyargılarını yansıtması nedeniyle, bu alandaki riskler uzun süredir gündemde.

Google’dan Açıklama ve Gelecek Adımlar

Google yetkilileri, araştırma sonuçlarını inceleyeceklerini açıkladı. Araştırmacılar, şu anda daha iyi performans göstermesi beklenen üçüncü nesil Gemma modelinin ilk neslini test ettiklerini, ancak modelin tıbbi amaçlarla kullanılmasının planlanmadığını belirtti.