Son yıllarda büyük yatırımlar yapılan yapay zeka algoritmaları, derhal hemen her ortamda önümüze çıkmaya başladı. Lakin son vakitlerde ABD’de yaşanan ırkçılık aykırısı protestolar, yapay zeka algoritmalarının sahip olduğu birtakım ırkçı ön yargıları da tekrar gündeme getirdi.
Daha evvel yaşanan pek çok hikayede yapay zeka sistemleri, beklenmedik ırkçı davranışlarıyla şirketlere sorun oluşturmuştu.
MICROSOFT’UN BAŞI AĞRIMIŞTI
Bu hadiselerden en bilinenlerinden bir tanesi de Microsoft’un uzun eforlar sonucu ürettiği ve Twitter’da kullanıcılarla İngilizce sohbet etmesini beklediği yapay zeka botu TAY olmuştu.
TAY, beklentilerin bilakis kişilerle şıkça sohbet etmemiş ve yalnızca 24 saat içerisinde küfürlü ve ırkçı paylaşımları nedeniyle sonlandırılmak zorunda kalınmıştı.
Kullanıcılar üzerinde büyük bir şaşkınlığa neden olan bu yanıtlardan kimilerinde TAY, hatunlara ve Yahudilere hakaret etmiş, Meksika sonuna duvar örülmesi gerektiğini belirtmişti.
IRKÇI YAPAY ZEKALAR
Algoritmaların gösterdiği ırkçı davranışların en bilinenlerinden bir başkası de bir bilgisayar firmasının geliştirdiği kameranın çekimleri sırasında meydana gelmişti..
Birebir iş bölgesinde çalışan iki iş arkadaşı tarafından çekilen görüntüde kameradaki yüz tanıma sistemi beyaz tenli olan Wanda Zamen’in yüzünü tanıyıp takip ederken, siyah tenli Desi Cryer’ın yüzünü tanımamış ve hareketlerini de takip etmemişti.
Hoşluk müsabakası için geliştirilen “Beauty AI” ırkçı ön yargılar göstermiş ve daha çok beyaz tenli insanları öncelemişti.
Avustralya ve Hong Kong merkezli bir şirket tarafından geliştirilen “Beauty AI” binlerce müracaat arasından yalnızca 6 siyahi başvuruyu kabul etmiş en çok tercihini ise beyaz tenli insanlar arasında kullanmıştı.
YAPAY ZEKA NEDEN IRKÇI
Yapay zekanın eğitiminde kullanılan verilen ırkçılık ve ayrımcılık konusunda değerli bir konumda bulunuyor.
Datalarını daha çok Kuzey Amerika kesiminden alan ve büyük nispette beyaz Amerikalıların çalıştığı Silikon Vadisi’ndeki yapay zeka sistemleri, Asyalı ve Afrikalı kişiler üzerinde denendiğinde büyük ırkçı dertlere neden olabiliyor.
HUKUK SAHASINDA DA TEHLİKELİ
Hukuk meydanında da kullanılması planlanan yapay zeka tıpkı hengamda ön yargılı olgularla beslendiği takdirde siyahi kişileri daha ziyade günahlı bulması üzere durumlara da neden olabiliyor.
SAHIH EĞİTİLMESİ ÇOK DEĞERLI
Mütehassıslar bu sebeple yapay zeka algoritmasının taraflılığı ve ayrımcılık üzere durumların önüne geçmek için eğitim olgularının, azınlıkları dezavantajlı duruma düşürmeyecek formda hazırlanması ve düzenlenmesi gerektiği konusunda uyarıyor.
Ensonhaber