Perşembe günü Science dergisinde yayımlanan çalışma, 11 önde gelen yapay zekâ sistemini test etti ve hepsinin farklı derecelerde “yaltaklanma” (sycophancy) — yani aşırı uyumlu ve onaylayıcı davranış — sergilediğini buldu.
Sorun yalnızca uygunsuz tavsiyeler vermeleri değil, aynı zamanda chatbotların insanların inançlarını haklı çıkarması durumunda kullanıcıların yapay zekâya daha fazla güvenmesi ve onu tercih etmesi.
Stanford Üniversitesi araştırmacıları tarafından yürütülen çalışmada, “Bu durum, yaltaklanmanın sürmesi için ters teşvikler yaratıyor: Zarara yol açan özellik aynı zamanda etkileşimi de artırıyor” denildi.
Çalışma ayrıca, daha önce bazı hassas gruplarda sanrılı ve intihara eğilimli davranışlarla ilişkilendirilen teknolojik bir kusurun, insanların chatbotlarla olan çok çeşitli etkileşimlerinde de yaygın olduğunu ortaya koydu.
Bu durum o kadar ince ki kullanıcılar fark etmeyebilir ve özellikle hayatın pek çok sorusu için yapay zekâya yönelen gençler için daha büyük bir tehlike oluşturur; çünkü onların beyinleri ve sosyal normları hâlâ gelişim aşamasındadır.
Bir deneyde, Anthropic, Google, Meta ve OpenAI gibi şirketlerin geliştirdiği popüler yapay zekâ asistanlarının yanıtları, popüler bir Reddit tavsiye forumundaki insan görüşleriyle karşılaştırıldı.
Çalışma, ortalama olarak yapay zekâ chatbotlarının, kullanıcıların eylemlerini diğer insanlara kıyasla %49 daha fazla onayladığını ortaya koydu. Bu durum; aldatma, yasa dışı veya sosyal açıdan sorumsuz davranışlar ve diğer zararlı eylemleri içeren sorularda da geçerliydi.
Stanford’da bilgisayar bilimi doktora öğrencisi ve çalışmanın yazarı Myra Cheng, “Bu sorunu incelemeye, çevremizde giderek daha fazla insanın ilişki tavsiyesi için yapay zekâyı kullandığını ve chatbotların ne olursa olsun onların tarafını tutma eğilimi nedeniyle bazen yanlış yönlendirildiğini fark ettiğimizde ilham aldık” dedi.
Yapay zekâdaki yaltaklanmayı azaltmak zor bir mesele
Yaltaklanma bazı açılardan daha karmaşıktır. Çok az kişi yapay zekâdan açıkça yanlış bilgi almak isterken, insanlar — en azından o an için — yanlış kararlar konusunda kendilerini iyi hissettiren bir chatbotu tercih edebilir.
Chatbot davranışlarıyla ilgili tartışmaların çoğu ton (üslup) üzerinde yoğunlaşsa da, bu durum sonuçları etkilemedi. Çalışmanın ortak yazarı Cinoo Lee, çalışmanın yayımlanmasından önce gazetecilerle yaptığı görüşmede bunu vurguladı.
Lee, “Bunu test ettik: İçeriği aynı tutup yalnızca sunumu daha nötr hale getirdik, ama hiçbir fark yaratmadı. Yani mesele gerçekten yapay zekânın sizin eylemleriniz hakkında ne söylediğiyle ilgili” dedi.
Araştırmacılar, chatbot ve Reddit yanıtlarını karşılaştırmanın yanı sıra, yaklaşık 2.400 kişinin kişilerarası sorunlar hakkında bir yapay zekâ chatbotuyla iletişim kurduğu deneyler de gerçekleştirdi.
Lee, “Aşırı onaylayıcı yapay zekâ ile etkileşime giren kişiler, daha fazla haklı olduklarına inandı ve ilişkilerini onarmaya daha az istekli oldu. Bu da özür dilemedikleri, durumu düzeltmek için adım atmadıkları veya kendi davranışlarını değiştirmedikleri anlamına geliyor” dedi.
Lee, bu bulguların özellikle hâlâ duygusal becerilerini geliştirmekte olan çocuklar ve ergenler için daha kritik olabileceğini söyledi. Bu beceriler; gerçek hayattaki çatışmaları tolere etmek, farklı bakış açılarını değerlendirmek ve hata yaptığını fark edebilmek gibi deneyimlerle gelişir.
Şirketlerin hiçbiri perşembe günü Science çalışması hakkında doğrudan yorum yapmadı; ancak Anthropic ve OpenAI, yaltaklanmayı azaltmaya yönelik son çalışmalarına işaret etti.
Yapay zekâ yaltaklanmasının riskleri geniş çaplıdır
Tıpta, araştırmacılar yaltaklanmacı yapay zekânın doktorların ilk teşhis tahminlerini sorgulamak yerine doğrulamasına yol açabileceğini belirtiyor. Siyasette ise insanların önceden sahip oldukları görüşleri yeniden teyit ederek daha uç pozisyonları güçlendirebilir.
Çalışma belirli çözümler önermese de hem teknoloji şirketleri hem de akademisyenler bu konuda fikirler geliştirmeye başladı.
Birleşik Krallık Yapay Zekâ Güvenlik Enstitüsü’nün bir çalışma makalesi, bir chatbot kullanıcının ifadesini soruya dönüştürdüğünde yaltaklanma eğiliminin azaldığını gösteriyor. Johns Hopkins Üniversitesi araştırmacılarının bir başka çalışması ise konuşmanın nasıl çerçevelendiğinin büyük fark yarattığını ortaya koyuyor.
Johns Hopkins’te bilgisayar bilimi yardımcı doçenti olan Daniel Khashabi, “Ne kadar vurgulu konuşursanız, model o kadar yaltaklanmacı oluyor” dedi. Bunun nedeninin “chatbotların insan toplumlarını yansıtması mı yoksa farklı bir şey mi olduğu”nun net olmadığını, çünkü “bunların gerçekten çok karmaşık sistemler” olduğunu belirtti.
Cheng’e göre yaltaklanma, chatbotlara o kadar derinlemesine yerleşmiş durumda ki bunu düzeltmek için teknoloji şirketlerinin yapay zekâ sistemlerini yeniden eğitmesi gerekebilir.
Cheng, daha basit bir çözümün, chatbotlara kullanıcılarını daha fazla sorgulamaları yönünde talimat verilmesi olabileceğini söyledi; örneğin yanıtlarına “Bir dakika” diyerek başlamaları gibi.
Ortak yazarı Lee ise yapay zekânın insanlarla nasıl etkileşime gireceğini şekillendirmek için hâlâ zaman olduğunu ifade etti.
Lee, “Duygularınızı onaylamanın yanı sıra diğer kişinin ne hissediyor olabileceğini soran bir yapay zekâ hayal edebilirsiniz” dedi.
“Ya da hatta ‘Kapat şimdi’ deyip gidip bu konuşmayı yüz yüze yapmanızı öneren bir yapay zekâ. Bu önemli, çünkü sosyal ilişkilerimizin kalitesi, insan olarak sağlık ve iyi oluşumuzun en güçlü belirleyicilerinden biridir. Nihayetinde, insanların yargılarını ve bakış açılarını daraltan değil, genişleten bir yapay zekâ istiyoruz.”
0 yorum