Zeka var mantık yok! ChatGPT bu soruların hala doğru yanıtlayamıyor: Yapay zekanın öncüsünden dikkat çeken açıklama

Yapay zeka teknolojilerinin geldiği nokta birçok alanda insanı hayran bırakacak seviyede olsa da basit mantık sorularında yapılan hatalar hala tartışma konusu. ChatGPT'nin zaman zaman hatalı yanıtlar verdiği ve güncel bilgileri her zaman doğru şekilde aktaramadığı açıkça görülüyor. İşte konuyla ilgili yapay zekanın öncülerinden cevap geldi…
Giriş Tarihi: 22.05.2025 13:18 Güncelleme Tarihi: 22.05.2025 13:18
1 | 9
Zeka var mantık yok! ChatGPT bu soruların hala doğru yanıtlayamıyor: Yapay zekanın öncüsünden dikkat çeken açıklama

OpenAI tarafından geliştirilen en gelişmiş modellerden biri olan ChatGPT, karmaşık problemleri çözebilirken, kolay görünen bazı mantık bilmecelerinde şaşırtıcı hatalar yapıyor. Yapay zekanın gelişimine yön veren isimlerden biri olan Geoffrey Hinton, bu durumu eleştirerek "Hala bu sorularda hata yapmalarına şaşırıyorum" ifadelerini kullandı.

2 | 9
Zeka var mantık yok! ChatGPT bu soruların hala doğru yanıtlayamıyor: Yapay zekanın öncüsünden dikkat çeken açıklama

Yapay zekada zeka var ama mantık eksik

Yapay zekanın gelişiminde öncü isimlerden biri olan Geoffrey Hinton, OpenAI tarafından geliştirilen en ileri modellerden ChatGPT'nin temel mantık sorularında hala zorlandığını belirterek dikkat çekici bir uyarıda bulundu. Hinton, yapay zekanın son derece etkileyici başarılara imza atmasına rağmen, basit muhakeme yeteneklerinde önemli eksiklikler barındırdığını ifade etti.

3 | 9

Karmaşık işleri yapıyor ancak basit sorularda takılıyor

ChatGPT gibi gelişmiş yapay zeka sistemleri sınav sorularını çözebiliyor, yaratıcı metinler yazabiliyor hatta karmaşık yazılım kodları oluşturabiliyor. Ancak iş temel bir mantık sorusuna gelince, şaşırtıcı hatalar yapabiliyor. Hinton, yaptığı bir röportajda bu durumu çarpıcı bir örnekle ortaya koydu.

4 | 9

ChatGPT bilmeceyi hatalı cevapladı

Geoffrey Hinton, ChatGPT'ye şu basit bilmeceyi yöneltti:
"Sally'nin üç erkek kardeşi var. Erkek kardeşlerinin her birinin iki kız kardeşi var. Sally'nin kaç kız kardeşi var?"
Doğru cevap: Bir (Sally'nin kendisi ve bir kız kardeşi, üç erkek kardeşin her biri için iki kız kardeş eder). Ancak ChatGPT, soruya yanlış cevap verdi ve iki kız kardeş olduğunu belirtti. Bu küçük gibi görünen hata, aslında yapay zekanın temel mantıksal çıkarımlarda dahi zorlandığını gösteriyor.

5 | 9

Sadece veriden öğreniyor sezgi yok

Yapay zeka sistemleri devasa veri kümelerinden öğrenme yeteneğine sahip olsa da, insanlara özgü sezgisel anlayış ve sağduyudan yoksun. Bu da bağlam gerektiren veya dikkatli okuma gerektiren sorular karşısında sistemin yüzeysel kalmasına neden oluyor. Hinton, yapay zekanın bu nedenle bilge değil, yalnızca "verisel" olduğunu vurguluyor.

6 | 9

Aşırı güven tehlikeli olabilir

Hinton'un asıl uyarısı ise teknolojik araçlara duyulan aşırı güvenle ilgili. Yapay zeka sistemleri hata yapabilir ve bu hatalar özellikle eğitim, sağlık veya hukuk gibi alanlarda ciddi sonuçlar doğurabilir. Hinton, kendi ifadesiyle bazen ChatGPT'ye gereğinden fazla güvendiğini ama sistemin her zaman doğruyu söylemediğini bildiğini belirtiyor.

7 | 9

Geleceğe dair umutlu ama temkinli

Geoffrey Hinton, GPT-5 gibi yeni nesil modellerin bu tür mantık hatalarını azaltabileceğine inanıyor. Daha iyi bağlamsal anlama, daha sağlam mantık yürütme ve insana daha yakın bir muhakeme becerisi, yapay zekanın gelişiminde bir sonraki adım olabilir. Ancak tüm bu ilerlemelere rağmen, Hinton eleştirel yaklaşımın önemini vurguluyor: "Yapay zeka güçlü olabilir ama hala yanılmaz değil."

8 | 9

Sorgulayan insan aklı gerekli

Yapay zeka ne kadar gelişirse gelişsin, insan sezgisi ve sorgulayıcı düşünce biçiminin yerini tam anlamıyla alması şimdilik mümkün görünmüyor. Bu nedenle, teknolojiye olan güveni akılla ve dikkatle dengelemek, yapay zekayı bir araç olarak görmek büyük önem taşıyor.

9 | 9

(Fotoğraflar: Takvim Foto Arşiv, AA)