Beynimizdeki üçüncü katman: Kararları artık yapay zeka mı veriyor?
Son araştırmalar yapay zeka kullanımının insanların eleştirel düşünme alışkanlıklarını etkileyebildiğini ortaya koyuyor. Özellikle “bilişsel teslimiyet” olarak tanımlanan durumda kullanıcılar AI tarafından üretilen yanıtları yeterince sorgulamadan kabul etme eğilimi gösteriyor. Bu durum karar alma süreçlerinde insan muhakemesinin geri plana düşmesine yol açabiliyor.
Hızlı Özet Göster
- Pennsylvania Üniversitesi araştırmacılarının yaptığı deneylerde katılımcılar yapay zekânın doğru yanıtlarını yüzde 93, yanlış yanıtlarını ise yüzde 80 oranında sorgulamadan kabul etti.
- Araştırmacılar kullanıcıların yapay zekâ yanıtlarını analiz etmeden benimsemesini bilişsel teslimiyet olarak tanımlıyor ve bu durumun düşünme sürecini dışsallaştırdığını belirtiyor.
- Yüksek analitik düşünme becerisine sahip kişiler ve yapay zekâyı mutlak otorite olarak görmeyen kullanıcılar hatalı yanıtlara karşı daha dirençli çıkıyor.
- Deneylerde maddi teşvik ve geri bildirim yanlış yapay zekâyı düzeltme oranını artırırken, 30 saniyelik zaman baskısı hataları fark etme oranını düşürdü.
- Araştırmacılar yapay zekâ doğru olduğunda performansın arttığını ancak yanlış olduğunda ciddi şekilde düştüğünü, buna rağmen kullanıcı güveninin yüksek kaldığını tespit etti.
Son dönemde yapılan araştırmalar yapay zekâ ile etkileşimin yalnızca bilgi edinme biçimimizi değil aynı zamanda düşünme alışkanlıklarımızı da değiştirdiğini ortaya koyuyor. Özellikle büyük dil modellerinin (LLM) yaygınlaşmasıyla birlikte bazı kullanıcıların eleştirel düşünme süreçlerini giderek daha fazla yapay zekâya devrettiği gözlemleniyor. Bu durum akademik literatürde "bilişsel teslimiyet" olarak adlandırılmaya başlandı.
Fotoğraf Takvim.com.tr grafik servisi tarafından hazırlanmıştır.
BİLİŞSEL TESLİMİYET NEDİR?
Araştırmacılar bu kavramı kullanıcının bir yapay zekâ sisteminin ürettiği yanıtları sorgulamadan kabul etmesi olarak tanımlıyor. Yani kişi verilen cevabın doğruluğunu analiz etmek yerine onu "hazır ve güvenilir bilgi" gibi benimseyebiliyor. Bu yaklaşım geleneksel "bilişsel yük devretme" (örneğin hesap makinesi veya GPS kullanımı) davranışından farklı görülüyor. Çünkü burada kullanıcı yalnızca sonucu değil düşünme sürecinin kendisini de dışsallaştırabiliyor.
Pennsylvania Üniversitesi araştırmacılarının yaptığı deneylerde katılımcılar yapay zekânın doğru yanıtlarını yüzde 93, yanlış yanıtlarını ise yüzde 80 oranında sorgulamadan kabul etti.Fotoğraf:AA
KATMAN 1, KATMAN 2 VE "YAPAY BİLİŞ"
Psikoloji literatüründe karar verme süreçleri genellikle ikiye ayrılır:
- Katman 1: Hızlı, sezgisel ve otomatik düşünme
- Katman 2: Yavaş, analitik ve bilinçli düşünme
Yeni araştırmalar yapay zekânın devreye girmesiyle birlikte üçüncü bir alanın oluştuğunu öne sürüyor: "yapay biliş". Bu kavram karar sürecinin insan düşüncesi yerine algoritmik yanıtlarla şekillenmesini ifade ediyor.
Araştırmacılar kullanıcıların yapay zekâ yanıtlarını analiz etmeden benimsemesini bilişsel teslimiyet olarak tanımlıyor ve bu durumun düşünme sürecini dışsallaştırdığını belirtiyor.
DENEYLER NE GÖSTERİYOR?
Pennsylvania Üniversitesi araştırmacılarının yürüttüğü deneylerde katılımcılara yapay zekâ destekli problem çözme görevleri verildi. Sistem bazen doğru bazen ise kasıtlı olarak yanlış yanıtlar üretti.
Öne çıkan bulgular neler?
- Katılımcılar yapay zekâya sık sık başvurdu.
- Doğru yanıt verildiğinde kabul oranı yaklaşık %93 oldu.
- Yanlış yanıt verildiğinde bile kabul oranı yaklaşık %80 seviyesinde kaldı.
- Katılımcılar, yapay zekâ hatalı olsa bile kendi güvenlerini yüksek tutma eğilimindeydi.
- Bu sonuçlar kullanıcıların çoğu zaman doğrulama yapmadan yapay zekâya güvendiğini gösteriyor.
Yüksek analitik düşünme becerisine sahip kişiler ve yapay zekâyı mutlak otorite olarak görmeyen kullanıcılar hatalı yanıtlara karşı daha dirençli çıkıyor.
PERFORMANS VE GÜVEN PARADOKSU
Ars Technica'da yer alan habere göre araştırmalar ilginç bir çelişkiye de dikkat çekiyor: Yapay zekâ doğru olduğunda performans artıyor ancak yanlış olduğunda performans ciddi şekilde düşüyor. Buna rağmen kullanıcıların sisteme duyduğu güven genellikle yüksek kalıyor. Bu durum, "akıcı ve kendinden emin" yanıtların doğru kabul edilme eğilimini güçlendiriyor.
Deneyde neler test edildi?
Deneylerde bazı ek koşullar da test edildi:
- Maddi teşvik ve geri bildirim: Yanlış yapay zekâyı düzeltme oranını artırdı
- Zaman baskısı (30 saniye sınırı): Hatalı yanıtları fark etme oranını düşürdü
- Bu bulgular düşünmeye ayrılan sürenin eleştirel değerlendirme üzerinde doğrudan etkili olduğunu gösteriyor.
Deneylerde maddi teşvik ve geri bildirim yanlış yapay zekâyı düzeltme oranını artırırken, 30 saniyelik zaman baskısı hataları fark etme oranını düşürdü.
KİMLER DAHA AZ ETKİLENİYOR?
Araştırmalar bazı bireylerin yapay zekâ hatalarına karşı daha dirençli olduğunu ortaya koyuyor. Daha yüksek analitik düşünme becerisine sahip kişiler ve yapay zekâyı mutlak otorite olarak görmeyen kullanıcılar bu gruba giriyor. Buna karşılık yapay zekâya yüksek güven eğilimi olan bireyler yanlış yönlendirmelere daha açık hale geliyor.
Genel tablo ne anlatıyor?
Genel tablo yapay zekânın güçlü bir karar destek aracı olduğunu ancak kontrolsüz kullanıldığında düşünme süreçlerini zayıflatabileceğini gösteriyor. Araştırmacıların vurguladığı temel nokta şu: Yapay zekâya ne kadar güveniyorsanız düşünme kaliteniz de o sistemin doğruluğuyla sınırlı hale gelir. Bu nedenle yapay zekâdan gelen her yanıtı bir "son karar" değil, bir "başlangıç noktası" olarak görmek kritik önem taşıyor.
