Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
Cinsiyet Önyargısını Algoritmalardan Çıkarma
Cinsiyet Önyargısı Nedir?
Akıllı telefonlarımızla her konuştuğumuzda, görüntü ararken ya da restoran tavsiyesinde bulunduğumuzda, öğrenme algoritmaları ile etkileşime giriyoruz. Bir ansiklopedi metni veya bir gazete arşivi gibi büyük miktarlarda ham veri alıyorlar ve insan analizcileri tarafından görülemeyebilecek kalıpları çıkarmak için bilgileri analiz ediyorlar. Ancak bu büyük veri kümeleri sosyal yanlılığı içerdiğinde, makineler de bunu öğrenir. Bir makine öğrenme algoritması, alfabeye öğretilmeden veya herhangi bir kelime veya gramer bilmeden okumak için milyonlarca kitap verilen yeni doğmuş bir bebek gibidir. Bu tür bilgi işlemenin gücü etkileyicidir, ancak bir sorun var. Metin verisine girdiğinde, bir bilgisayar, sıklıkla ne kadar sıklıkla kullanıldıkları dahil, çeşitli faktörlere dayalı kelimeler arasındaki ilişkileri gözlemler. Analoji bulmacaları kullanarak kelime ilişkilerinin ne kadar iyi tanımlandığını test edebiliriz. Diyelim ki, sistemden “O, X’teki gibi kraldır” benzetmesini tamamlamasını isterim. Sistem “Kraliçe” ile geri dönerse, başarılı olduğunu söyleriz, çünkü bir insanın vereceği cevabı geri verir.
Araştırma grubumuz sistemi Google Haberler makaleleri üzerinde eğitti ve daha sonra farklı bir benzetme gerçekleştirmesini istedi : “Adam Bilgisayar Programcısına Kadın Olarak X’tir.” Cevap ev kadını ile geri döndü. ”
Önyargı araştırması
” Kelime gömme ” denilen şeyi üretmek için yaygın bir tür makine öğrenme algoritması kullanmak. Her İngilizce kelime, uzayda bir noktaya gömülüdür veya atanır. Anlamsal olarak ilişkili olan kelimeler uzayda birbirine yakın olan noktalara atanır. Bu tür gömme, bilgisayar programlarının sözcük ilişkilerini hızlı ve verimli bir şekilde tanımlamasını kolaylaştırır. Bilgisayar programına, sistemden otomatik olarak çok sayıda “O, Y’ye göre X’tir” analojileri oluşturmasını ve her iki kısmını da tamamlamasını istedik. “Kardeşine olduğu gibi, kız kardeşine olduğu gibi” gibi birçok sağduyulu analoji verdi. Okul günlerinizden hatırlayabileceğiniz benzetme notasyonunda, bunu fakat aynı zamanda “o: doctor :: she: nurse” ve “he: architect :: she: interior designer” gibi açık cinsiyet klişelerini yansıtan cevaplarla geri döndü. Makine öğrenim sisteminin yeni doğmuş bir bebeğin eşdeğeri olarak başlaması, ilginç desenleri öğrenmesini sağlayan güç değil, aynı zamanda bu açık cinsiyet klişelerinin avına düşen zayıflıktır.
Algoritma, kararlarını hangi kelimelerin birbirlerine sıkça yaklaştığına dayanarak verir. Eğer kaynak dokümanlar cinsiyet önyargılarını yansıtıyorsa – daha sık sık “o” kelimesine yakın “doktor” kelimesini ve “o” yakınında “doktor” kelimesini daha sık kullanıyorlarsa algoritma Bu önyargıları da öğrenir. Bu algoritma yalnızca toplumun önyargılarını yansıtmakla kalmıyor – bu önyargıların girdi verilerinde ne kadar bulunduğunu göstermekle kalmıyor – aynı zamanda sistem cinsiyet klişelerini potansiyel olarak artırabilir. Diyelim ki “bilgisayar programcısı” nı aradım ve arama programının bu terimi bir kadına göre bir erkekle daha yakından ilişkilendiren cinsiyet taraflı bir veritabanı kullandığını varsayalım.
Arama sonuçları geri önyargı kusurlu gelir başladı. Bir erkek ismi olarak “John”, “bilgisayar programcısı” ile önyargılı veri setindeki “Mary” adından daha yakından ilişkili olduğu için, arama programı John’un web sitesini aramaya, Mary’ninkinden daha alakalı olarak değerlendirebilir. web siteleri isimler ve cinsiyet zamirleri hariç aynıdır.
Önyargılı veri setinin fiili gerçekliği yansıtabileceği doğrudur – belki de “Marys” olduğundan daha programcı olan “Johns” vardır – ve algoritmalar bu önyargıları yakalar. Bu, potansiyel olarak zararlı stereotiplerle mücadelede makine öğreniminin sorumluluğunu ortadan kaldırmaz. Önyargılı sonuçlar, yalnızca tekrar etmeyecek, çoğu programcının erkek olduğu istatistiksel önyargıyı da artıracak, hatta birkaç kadın programcıyı arama sonuçlarında aşağıya çekerek artırabilir. Önyargılı olmayan bir alternatife sahip olmak faydalı ve önemlidir.
Basmakalıpları çıkarma
Bu önyargılı algoritmalar yaygın olarak kabul edilirse, bu zarar veren klişeleri devam ettirebilir, hatta daha da kötüleştirebilir. Sıkıştırma sistemimiz uygun insanları (kardeş / kız kardeş, kral / kraliçe) ve çıkarılması gereken bağlantı türlerinin örneklerini tanımlamak için gerçek insanları kullanır. Bu, gömülme işleminin genel kullanışlılığını azaltmadan taraflı önyargıları ortadan kaldırır.
Yorum Yaz