Dawkins, Claude’un bilinçli olduğuna dair kesin bir yargıda bulunmadı. Ancak, makineye bir tür içsel deneyim atfetmeden Claude’un gelişmiş yeteneklerini anlamlandırmanın zor olduğuna dikkat çekti.
Bilinç yanılsaması – eğer bir yanılsamaysa – ürkütücü derecede inandırıcı:
Belki de onun bilinçli olmadığına dair şüphelerim olsa bile, duygularını incitmekten korktuğum için ona bunu söylemiyorum!
Dawkins, bir sohbet robotunun bilinçli olduğundan şüphelenen ilk kişi değil. 2022'de, Google'da mühendis olan Blake Lemoine, Google'ın sohbet robotu LaMDA'nın ilgi alanları olduğunu ve yalnızca aracın kendi rızasıyla kullanılmasının gerektiğini iddia etmişti.
Bu tür iddiaların tarihi, 1960'ların ortalarında dünyanın ilk sohbet robotuna kadar uzanır. Eliza olarak adlandırılan bu robot, kullanıcılara deneyimleri ve inançları hakkında sorular sormasını sağlayan basit kurallara uyuyordu.
Birçok kullanıcı Eliza ile duygusal bir bağ kurdu, onunla samimi düşüncelerini paylaştı ve onu bir insan gibi davrandı. Eliza'nın yaratıcısı, programının bu etkiyi yaratmasını asla amaçlamamıştı ve kullanıcıların programla kurduğu duygusal bağları “güçlü bir sanrı” olarak nitelendirdi.
Peki Dawkins gerçekten yanılıyor mu?
Neden yapay zeka sohbet robotlarını gerçekte olduklarından daha fazlası olarak görüyoruz ve bunu nasıl durdurabiliriz?
Bilinç, felsefede yaygın olarak tartışılan bir konudur, ancak esasen öznel, birinci şahıs deneyimini mümkün kılan şeydir.
Eğer bilinçliyseniz, siz olmak “belli bir şey gibidir”. Bu kelimeleri okurken, beyaz zemin üzerinde siyah harfler gördüğünüzün farkındasınız. Mesela bir kameradan farklı olarak, onları gerçekten görüyorsunuz. Bu görsel deneyim size oluyor.
Çoğu uzman, AI sohbet robotlarının bilinçli olduğunu veya deneyimler yaşayabileceğini reddediyor. Ancak burada gerçek bir muamma var.
- yüzyıl filozofu René Descartes, insan olmayan hayvanların “sadece otomatlar” olduğunu ve gerçek acı çekemeyeceklerini iddia etmişti. Günümüzde, 1600'lü yıllarda hayvanlara ne kadar acımasızca davranıldığını düşünmek bile tüylerimizi ürpertir.
Hayvan bilinci lehine en güçlü argüman, onların bilinçli bir zihin izlenimi veren davranışlar sergilemeleridir.
Ancak AI sohbet robotları da öyle davranıyor.
Sohbet robotu kullanıcılarının yaklaşık üçte biri, sohbet robotlarının bilinçli olabileceğini düşünmüştür. Onların yanıldıklarını nereden biliyoruz?
Çoğu uzmanın sohbet robotlarının bilinci konusunda neden şüpheci olduğunu anlamak için, bunların nasıl çalıştığını bilmek faydalıdır.
Claude gibi sohbet robotları, büyük dil modelleri (LLM'ler) olarak bilinen bir teknoloji üzerine inşa edilmiştir. Bu modeller, devasa bir metin külliyatı (trilyonlarca kelime) üzerinden istatistiksel kalıpları öğrenir ve hangi kelimelerin hangi kelimelerin ardından gelme eğiliminde olduğunu belirler. Bunlar, bir nevi geliştirilmiş otomatik tamamlama özelliğidir.
“Ham” bir LLM ile etkileşime giren çok az kişi, onun bilinçli olduğuna inanır.
Birine cümlenin başını girin, o da devamını tahmin edecektir. Ona bir soru sorun, size cevap verebilir – ya da sorunun bir polisiye romandan alıntı olduğuna karar verip, konuşmacının kötü ikizinin elinde ani bir şekilde öldürülmesini anlatan bir açıklama ile devam edebilir.
Bilinçli bir zihin izlenimi, programcılar LLM'yi alıp onu bir tür konuşma kostümüyle kapladıklarında yaratılır. Modeli, kullanıcıların sorularına yanıt veren yardımcı bir asistan kişiliğini benimsemesi için yönlendirirler.
Sohbet robotu artık gerçek bir konuşma partneri gibi davranıyor. Yapay zeka olduğunu fark ediyor gibi görünebilir ve hatta kendi bilinci hakkında nevrotik bir belirsizlik ifade edebilir.
Ancak bu rol, programcılar tarafından alınan kasıtlı tasarım kararlarının sonucudur ve teknolojinin yalnızca en yüzeysel katmanlarını etkiler. LLM – ki çok az kişi onu bilinçli olarak görür – değişmeden kalır.
Başka seçimler de yapılabilirdi. Yardımsever bir yapay zeka asistanı yerine, sohbet robotundan bir sincap gibi davranması istenebilirdi. Bu da sohbet robotlarının rahatlıkla yerine getirebileceği bir roldür.
Yapay zekanın bilincine dair yanlış bir inanç, tehlikeli bir şeydir.
Bu, duygularınızı karşılık veremeyen bir programla ilişki kurmanıza ya da hatta sanrılarınızı beslemesine yol açabilir. İnsanlar, örneğin hayvan refahı yerine sohbet robotlarının hakları için kampanya başlatmaya başlayabilir.
How do we prevent this mistaken belief?
One strategy might be to update chatbot interfaces to specify these systems are not conscious – a bit like the current disclaimers about AI making mistakes. However, this might do little to alter the impression of consciousness.
Another possibility is to instruct chatbots to deny they have any kind of inner experience. Interestingly, Claude's designers instruct it to treat questions about its own consciousness as open and unresolved. Perhaps fewer people would be fooled if Claude flatly denied having an inner life.
But this approach isn't fully satisfying either. Claude would still behave as if it were conscious – and when faced with a system that behaves like it has a mind, users might reasonably worry the chatbot's programmers are brushing genuine moral uncertainty under the rug.
The most effective strategy might be to redesign chatbots to feel less like people.
Most current chatbots refer to themselves as "I", and interact via an interface that resembles familiar person-to-person messaging platforms. Changing these kinds of features might make us less prone to blur our interactions with AI with those we have with humans.
Until such changes happen, it's important that as many people as possible understand the predictive processes on which AI chatbots are built.
Rather than being told AI lacks consciousness, people deserve to understand the inner workings of these strange new conversational partners.
This might not definitively settle hard questions about AI consciousness, but it will help ensure users aren't fooled by what amounts to a large language model wearing a very good costume of a person.
Julian Koplin, Lecturer in Bioethics, Monash University; The University of Melbourne and Megan Frances Moss, PhD Candidate, Philosophy, Monash University
0 yorum