Yapay zekada zeka var ama mantık eksik
Yapay zekanın gelişiminde öncü isimlerden biri olan Geoffrey Hinton, OpenAI tarafından geliştirilen en ileri modellerden ChatGPT'nin temel mantık sorularında hala zorlandığını belirterek dikkat çekici bir uyarıda bulundu. Hinton, yapay zekanın son derece etkileyici başarılara imza atmasına rağmen, basit muhakeme yeteneklerinde önemli eksiklikler barındırdığını ifade etti.
Karmaşık işleri yapıyor ancak basit sorularda takılıyor
ChatGPT gibi gelişmiş yapay zeka sistemleri sınav sorularını çözebiliyor, yaratıcı metinler yazabiliyor hatta karmaşık yazılım kodları oluşturabiliyor. Ancak iş temel bir mantık sorusuna gelince, şaşırtıcı hatalar yapabiliyor. Hinton, yaptığı bir röportajda bu durumu çarpıcı bir örnekle ortaya koydu.
ChatGPT bilmeceyi hatalı cevapladı
Geoffrey Hinton, ChatGPT'ye şu basit bilmeceyi yöneltti:
"Sally'nin üç erkek kardeşi var. Erkek kardeşlerinin her birinin iki kız kardeşi var. Sally'nin kaç kız kardeşi var?"
Doğru cevap: Bir (Sally'nin kendisi ve bir kız kardeşi, üç erkek kardeşin her biri için iki kız kardeş eder). Ancak ChatGPT, soruya yanlış cevap verdi ve iki kız kardeş olduğunu belirtti. Bu küçük gibi görünen hata, aslında yapay zekanın temel mantıksal çıkarımlarda dahi zorlandığını gösteriyor.
Sadece veriden öğreniyor sezgi yok
Yapay zeka sistemleri devasa veri kümelerinden öğrenme yeteneğine sahip olsa da, insanlara özgü sezgisel anlayış ve sağduyudan yoksun. Bu da bağlam gerektiren veya dikkatli okuma gerektiren sorular karşısında sistemin yüzeysel kalmasına neden oluyor. Hinton, yapay zekanın bu nedenle bilge değil, yalnızca "verisel" olduğunu vurguluyor.
Aşırı güven tehlikeli olabilir
Hinton'un asıl uyarısı ise teknolojik araçlara duyulan aşırı güvenle ilgili. Yapay zeka sistemleri hata yapabilir ve bu hatalar özellikle eğitim, sağlık veya hukuk gibi alanlarda ciddi sonuçlar doğurabilir. Hinton, kendi ifadesiyle bazen ChatGPT'ye gereğinden fazla güvendiğini ama sistemin her zaman doğruyu söylemediğini bildiğini belirtiyor.