İsa Tatlıcan

İSA TATLICAN

Yapay zekanın yalan sorunu

Eklenme Tarihi 19 Ağustos 2025

HABERİ
SESLİ DİNLE

00:00 00:00
Tüm Sesli Haberler

İnternetin icadından sonra en büyük teknolojik gelişme hiç şüphesiz yapay zeka uygulamalarının hayatamıza hızlı bir şekilde girişi oldu.
Bizim de içinde bulunduğumuz medya kuruluşu ve birçok kurum hızla bu yeni döneme ayak uydurmaya çalışıyor.
Bu döneme ayak uyduramayanları uzmanlar şimdiden uyarıyor: Rekabet gücünü kaybedeceksiniz ve dijital bir çölde yalnızlaşacaksınız.
Dönelim konumuza.

YALAN İLE GERÇEĞİ KİM AYIRT EDECEK?
En popüler yapay zeka araçlarından biri olan ChatGPT'yi örnek verelim. Sorduğunuz soruya saniyeler içinde cevap veriyor. Yorum yapıyor, raporlar hazırlıyor ve sürekli kendini geliştiriyor. Biz de bu bilgileri doğru kabul ederek yaptığımız işte tartışmasız kullanıyoruz.
Peki ya bilgiler arasında yalan ve yanlış bilginin kırıntıları varsa?
Çok kritik bir noktaya hatalı bilgiler veriyor ve ortaya çıktığında pişkin pişkin özür diliyorsa?
Bilişim dünyası şimdi bu soruya cevap arıyor: Bu sistemler doğru bilgiyi mi aktarıyor, yoksa içine fark edilmeden yanlış ya da yalan bilgiler mi sızıyor?
Aslında bu problem çok yeni değil. İnsan zihninin ürettiği bilgi, nasıl hata ve eksikler barındırıyorsa, insan üretimi olan yapay zeka uygulamaları aynı noksanları barındırabilir.
Dahası, yapay zekanın veri havuzu olarak kullandığı internet dünyası da çöp bilgilerle dolu.

YALANIN ÇOK AĞIR SONUÇLARI OLABİLİR
Ama yapay zekada farklı bir durum var.
Örneğin sosyal medyada karşınıza çıkan bir bilgiyi sorguluyorsunuz. Ama yapa zeka uygulamaları, size sunduğu bilgiyi öyle bir otorite havasında veriyor ki hiç şüphe duymuyorsunuz.
Örneğin Chatgbt'nin sizin için hazırladığı bir rapor, ya da bir sunumda hata buldunuz ve bunu kendisine söyleyerek uyardınız. O hatanın çok basit olduğunu düşünüyor. Yaptığı hatanın doğuracağı sonuçların farkında bile değil.
Oysa üretilen bu yanlış içeriklerin yarattığı riskler çok büyük. Mesela kritik bir konuda yanlış bilginin hızla yayılması, onarılması güç hasarlar oluşturabilir. Kişi ve kurumların itibar zedelenmesine yol açabilir. Kamu güvenliği de tehdit edebilir.

YAPAY ZEKA HALÜSİNASYON GÖRÜR MÜ?
Konunun uzmanları da yapay zekanın yalan ve yanlış içerik üreteceğini kabul ediyor. Buna da daha kabul edilebilir olsun diye "AI Halüsinasyonu" diyorlar.
Yapay zekanın bu en önemli açmazlarından biri olan "Halüsinasyon" meselesinin birkaç açıklaması mevcut. Yapay zeka aslında model kelimeleri birbiri ardına "olasılık hesabıyla" tahmin ediyor, doğruluk kontrolü yapmıyor. Ayrıca daha önce öğrendiği kalıpları kullandığı için bazen "uydurma" içerikler üretebilir.
Peki bunun çözümü ne?
Bence öncelikle şeffaflık. Yapay zeka uygulamaları kaçak güreşmemeli. İçerik oluştururken hangi verileri kullandığını açık bir şekilde belirtmeli.
İkincisi ise dijital okur yazarlık eğitimi. Okuyucu, kendisine ulaşan bilgiyi, kaynağı ne olursa olsun sorgulama alışkanlığı edinmeli.
Ve son olarak da hukuki süreç. Yanlış bilginin kasıtlı olarak üretildiği ve yaygınlaştırıldığı durumlarda bu işin sorumlularına yaptırımlar uygulanmalı.

HATADAN KİM SORUMLU?
"Yapay zekayı cezaevine mi atacaksınız" şeklinde meseleyi sulandırmaya çalışan bazı yaklaşımlar var. Elbette yapay zekayı hapse atmayacağız. Ancak yapay zeka uygulamasını yazan, geliştiren ve piyasaya süren şirket, ortaya çıkabilecek zararları öngörmek ve önlemekle yükümlü.
AB ülkeleri yapay zeka sistemlerini artık bir "ürün" olarak kabul etmeye başladı. Elbette bir ürün kusurluysa, bundan doğacak sorundan da doğrudan üretici sorumludur.
Unutmayalım: Yapay zekâ tek başına iyi ya da kötü değil. O, sadece bir araç. Onu nasıl kullanacağımız, hangi sınırlar içinde çalıştıracağımız bizim kararımız. Eğer denetim ve etik ilkelerle yönlendirilmezse, doğru ile yanlış arasındaki çizgi giderek silikleşecek. Ve en tehlikelisi, hakikatin kendisi sıradan bir "algı yönetimi" malzemesine dönüşecek.