OpenAI tarafından geliştirilen en gelişmiş modellerden biri olan ChatGPT, karmaşık problemleri çözebilirken, kolay görünen bazı mantık bilmecelerinde şaşırtıcı hatalar yapıyor. Yapay zekanın gelişimine yön veren isimlerden biri olan Geoffrey Hinton, bu durumu eleştirerek "Hala bu sorularda hata yapmalarına şaşırıyorum" ifadelerini kullandı.
Yapay zekada zeka var ama mantık eksik
Yapay zekanın gelişiminde öncü isimlerden biri olan Geoffrey Hinton, OpenAI tarafından geliştirilen en ileri modellerden ChatGPT'nin temel mantık sorularında hala zorlandığını belirterek dikkat çekici bir uyarıda bulundu. Hinton, yapay zekanın son derece etkileyici başarılara imza atmasına rağmen, basit muhakeme yeteneklerinde önemli eksiklikler barındırdığını ifade etti.
Karmaşık işleri yapıyor ancak basit sorularda takılıyor
ChatGPT gibi gelişmiş yapay zeka sistemleri sınav sorularını çözebiliyor, yaratıcı metinler yazabiliyor hatta karmaşık yazılım kodları oluşturabiliyor. Ancak iş temel bir mantık sorusuna gelince, şaşırtıcı hatalar yapabiliyor. Hinton, yaptığı bir röportajda bu durumu çarpıcı bir örnekle ortaya koydu.
ChatGPT bilmeceyi hatalı cevapladı
Geoffrey Hinton, ChatGPT'ye şu basit bilmeceyi yöneltti:
"Sally'nin üç erkek kardeşi var. Erkek kardeşlerinin her birinin iki kız kardeşi var. Sally'nin kaç kız kardeşi var?"
Doğru cevap: Bir (Sally'nin kendisi ve bir kız kardeşi, üç erkek kardeşin her biri için iki kız kardeş eder). Ancak ChatGPT, soruya yanlış cevap verdi ve iki kız kardeş olduğunu belirtti. Bu küçük gibi görünen hata, aslında yapay zekanın temel mantıksal çıkarımlarda dahi zorlandığını gösteriyor.
Sadece veriden öğreniyor sezgi yok
Yapay zeka sistemleri devasa veri kümelerinden öğrenme yeteneğine sahip olsa da, insanlara özgü sezgisel anlayış ve sağduyudan yoksun. Bu da bağlam gerektiren veya dikkatli okuma gerektiren sorular karşısında sistemin yüzeysel kalmasına neden oluyor. Hinton, yapay zekanın bu nedenle bilge değil, yalnızca "verisel" olduğunu vurguluyor.