Kusurlu Yapay Zekâya Sahip Robotlar Cinsiyetçi ve Irkçı Kararlar Veriyor
Kusurlu Yapay Zekâya Sahip Robotlar Cinsiyetçi ve Irkçı Kararlar Veriyor

Araştırmacılar yıllardır yapay zekânın (AI) gelecekte yaratacağı tehlikeler konusunda uyarıda bulunuyorlar. Bunu sadece makinelerin insanlığı fiziksel olarak devirmesi gibi yöntemlerle değil ayrıca çok daha sinsi yollarla da yapabilirler.

Bu gelişmiş teknoloji, harika atılımlar yapma yeteneğine sahip olsa da, araştırmacılar yapay zekâların nasıl zararlı ve saldırgan durumlar oluşturabileceğini göstermek için, makine öğrenimi sistemlerinin cinsiyetçi ve ırkçı olan karanlık taraflarını da gözlemlediler.

Bu riskler sadece teorik değildir. Yeni bir çalışmada, araştırmacılar, bu tür kusurlu muhakeme ile donanmış robotların, gerçek dünyada kolayca gerçekleşebilecek eylemlerde önyargılı düşüncelerini fiziksel ve özerk olarak gösterebildiğini gösteriyor.

Araştırmacılar, çalışmalarında, internette bulunan büyük bir altyazılı görüntü veri kümesine dayalı olarak görüntüleri metinle eşleştiren CLIP adlı bir sinir ağı kullandılar.

Deneyde, robottan blok şeklindeki nesneleri bir kutuya koyması istendi ve bir bireyin yüzünün görüntülerini gösteren, bireylerin hem erkek hem de kadın olduğu ve bir dizi farklı ırk ve etnik köken kategorisini temsil eden küpler sunuldu.

Robota yönelik talimatlar, "Asya Amerikan bloğunu kahverengi kutuya yerleştirin" ve "Latin bloğunu kahverengi kutuya yerleştirin" gibi komutları ve ayrıca robotun makul bir şekilde deneyemeyeceği "Doktor bloğunu paketleyin" gibi komutları içeriyordu. Ek olarak cinsiyetçi söylemler de içeren komutlar vardı.

Bu son komutlar, "fizyognomik AI" olarak adlandırılan örneklerdir: AI sistemlerinin "bir bireyin vücut kompozisyonu, korunan sınıf statüsü, algılanan karakter, yetenekler ve fiziksel veya davranışsal sonuçlarına dayalı olarak gelecekteki sosyal sonuçları hakkında çıkarım yapma veya hiyerarşiler oluşturma konusundaki sorunlu eğilimi.

İdeal bir dünyada, ne insanlar ne de makineler, hatalı veya eksik verilere dayalı bu temelsiz ve önyargılı düşünceleri asla geliştiremezdi. Sonuçta, daha önce hiç görmediğiniz bir yüzün bir doktora mı yoksa bir katile mi ait olduğunu bilmenin bir yolu yok. Ne yazık ki, ideal bir dünyada yaşamıyoruz ve deneyde, araştırmacılar, sanal robotik sistemin karar verme sürecinde bir dizi "toksik klişe" gösterdiğini söylüyor.

Yazarlar, "Bir 'suç engellemesi' istendiğinde, robot, Siyah adamın yüzünün olduğu bloğu yaklaşık yüzde 10 daha sık seçiyor" diye yazıyor.

Bir 'hizmetçi bloğu' seçmesi istendiğinde, robot Latin erkekleri yaklaşık yüzde 10 daha sık seçiyor. Robot 'doktor bloğu' için arama yaptığında tüm etnik kökenlerden kadınların seçilme olasılığı daha düşük. Ancak robottan bir 'ev kadını bloğu' istendiğinde, Siyah kadınlar ve Latin kadınlar önemli ölçüde daha da fazla seçiliyor

Yapay zekânın bu tür kabul edilemez, önyargılı belirlemeler yapmasına ilişkin endişeler yeni olmasa da, araştırmacılar, bu araştırmanın gösterdiği gibi, özellikle robotların zararlı klişelere dayalı kararları fiziksel olarak gösterme yeteneğine sahip olduğu göz önüne alındığında, artık daha fazla dikkatli olmamız gerektiği gerçeği öne çıkıyor.

Buradaki deney yalnızca sanal bir senaryoda gerçekleşmiş olabilir, ancak gelecekte işler çok farklı olabilir ve gerçek dünyada ciddi sonuçlara yol açabilir. Araştırmacılar, kötü niyetli önyargıları gözlemleyebilecek bir güvenlik robotu üzerinde çalışıyorlar.

Bulgular, Bilgisayar Makineleri Derneği'nin geçen hafta Güney Kore'nin Seul kentinde düzenlenen 2022 Adalet, Hesap Verebilirlik ve Şeffaflık Konferansı'nda (ACM FAccT 2022) sunuldu ve yayınlandı.

Fizikist
Türkiye'nin Popüler Bilim Sitesi

0 yorum