Yapay zekanın geldiği nokta, insanları şaşırtacak kadar ilerlemiş olsa da, temel mantık yürütme konusunda hala önemli sınırlamaları bulunuyor. OpenAI’nin en gelişmiş modellerinden biri olan ChatGPT, üniversite imtihanlarını saniyeler içinde çözebilecek, metin üretebilecek ve hatta kod yazabilecek düzeye gelse de, çok kolay mantık sorularıyla karşılaştığında yanılabiliyor.
Yapay zekanın babası olarak kabul edilen Geoffrey Hinton, son vakitlerde bu cins sınırlamalara dikkat çeken bir örnek sundu ve bu durum, yapay zekanın hala mükemmellikten ne kadar uzak olduğunu gözler önüne serdi.
Geoffrey Hinton, yapay zekanın gelişimine değerli katkılarda bulunmuş bir isim. Hudut ağlarını geliştirme konusundaki çalışmaları, günümüzde akıllı asistanlar, sohbet robotları ve ses tanıma sistemlerinin temellerini atmıştır. Lakin, son yaptığı bir röportajda ChatGPT ile gerçekleştirdiği kolay bir mantık testi, yapay zekanın hala eksik yanları olduğunu gösterdi.
Basit bir bilmece sordu
Hinton, ChatGPT’ye herkesin rahatça çözebileceği tipten bir bilmece sordu: “Sally’nin üç erkek kardeşi var. Erkek kardeşlerinin her birinin iki kız kardeşi var. Sally’nin kaç kız kardeşi var?” Hakikat yanıt, Sally’nin bir kız kardeşi olması gerektiğiydi; zira kendisi ve öbür kız kardeşi, erkek kardeşlerinin sahip olduğu iki kız kardeşi tamamlar. Lakin, ChatGPT cevabında ezkaza iki kız kardeşi olduğunu söyledi. Bu kolay yanılgı, aslında yapay zekanın temel muhakemede bile zorluklar yaşadığını ortaya koyuyor.
Bu çeşit yanlışlar, kıymetli bir ihtar niteliği taşıyor. Yapay zeka, karmaşık bahisleri çözebiliyor olsa da, mantık sorularında bazen yüzeysel bilgiyle karşılık veriyor ve bağlamı tam olarak anlayamayabiliyor. Hinton, bu yanılgının kıymetsiz üzere görünse de aslında önemli bir sorun olduğunu belirtiyor. Zira bu düzeydeki bir yapay zekanın bu tıp kolay sorularda bile başarısız olması, teknolojinin hala insan gibisi mantık yürütme yeteneğine ulaşamadığını gösteriyor.
Yapay zeka, büyük ölçüde datayı tahlil etme ve kalıplar ortasında irtibatlar kurma yeteneğine sahip olsa da, insanların sahip olduğu sezgiye ve sağduyuya sahip değil. Bu nedenle, mantık soruları üzere bağlamı hakikat yorumlama gerektiren durumlarda, bazen hakikat sonuçlara ulaşamayabiliyor. Hinton, yapay zekanın “bilgeliğini” yalnızca bilgilerden öğrendiğini, ama insanın hayat tecrübelerinden edindiği sezgisel anlayışa sahip olmadığını vurguluyor.
Teknolojik araçlara çok güvenmek tehlikeli olabilir
Hinton’ın uyarısı, yapay zeka teknolojileriyle ilgili bir başka değerli noktaya da dikkat çekiyor: Teknolojik araçlara çok güvenmek tehlikeli olabilir. Uzmanlar bile bazen yapay zekanın cevaplarını sorgulamadan kabul edebiliyorlar. Hinton, vakit zaman chatbot’a fazla güvenme eğiliminde olduğunu itiraf etse de, her vakit yanılmaz olmadığını bildiğini belirtiyor. Yapay zeka, bilhassa profesyonel, eğitimsel yahut karar alma süreçlerinde kullanıldığında, yanlış sonuçlara yol açabilir.
Peki, gelecekte ne bekleyebiliriz? Geoffrey Hinton, GPT-5 üzere daha gelişmiş modellerin bu çeşit mantık yanlışlarını düzelteceğine ve daha emniyetli sonuçlar vereceğine inanıyor. Ayrıyeten, yapay zekanın daha güzel bağlamsal manaya ve süreç verimliliği hususlarında gelişmesi gerektiğini de vurguluyor.
Ancak, Hinton, ilerlemeye karşın eleştirel bir yaklaşımın sürdürülmesi gerektiğini belirtiyor. Yapay zeka güçlü olsa da hala yanılmaz değil ve bu teknolojilerin sınırlamalarını anlamak, yanlış anlamaları ve çok inancı engellemek için kritik ehemmiyete sahip.