Sağlıklı beslenme hedefiyle tuz alternatifleri arayan 60 yaşındaki bir Amerikalı, ChatGPT'nin önerisine uyarak kendini hastanelik etti. Yapay zeka, kullanıcıya gıdalarda kullanılmayan toksik bir madde olan sodyum bromürü önermişti. Üç ay boyunca bu kimyasalı tüketen adamın sağlık durumu kötüleşince olay dünya medyasında geniş yankı uyandırdı.
SANAYİDE KULLANILAN TEHLİKELİ MADDE
The Guardian yer alan habere göre, geçmişte antikonvülsan ve sakinleştirici olarak kullanılan sodyum bromür, günümüzde gıda dışı alanlarda temizlik, tarım ve endüstriyel üretimde değerlendiriliyor. Ancak Ulusal Sağlık Enstitüleri bu maddenin insan tüketimine uygun olmadığını vurguluyor. Uzmanlara göre uzun süreli kullanımda "bromizm" adı verilen ciddi sağlık problemleri ortaya çıkabiliyor.
HASTANEYE YATIRILDI HALÜSİNASYONLAR BAŞLADI
ABD'li adam hastaneye başvurduğunda yorgunluk, uykusuzluk, koordinasyon kaybı, aşırı susuzluk, ciltte akne ve kızarıklıklar gibi bromizm belirtileri gösterdi. Bununla da kalmadı komşusunun kendisini zehirlediğini söyleyerek paranoya geliştirdi, işitsel ve görsel halüsinasyonlar yaşadı. Kaçma girişiminde bulununca psikiyatrik gözetim altına alındı.
Üç haftalık tedavi sürecinde damar yoluyla sıvı ve elektrolit desteği sağlandı, antipsikotik ilaçlarla da semptomlar kontrol altına alındı. Tedavinin ardından hasta taburcu edildi.
Vakanın raporunu hazırlayan uzmanlar, bir hekimin sodyum klorür yerine sodyum bromür önermesinin neredeyse imkansız olduğunu söyledi. Uzmanlara göre bu olay, yapay zeka destekli araçların yanlış ve potansiyel olarak ölümcül tavsiyeler verebileceğini gösteren çarpıcı bir örnek.
UZMANLARDAN KRİTİK UYARILAR
Biyoteknoloji şirketi Centivax'ın CEO'su Dr. Jacob Glanville, ChatGPT'nin bir hekim gibi görülmemesi gerektiğini belirterek şunları söyledi:
"Bunlar aslında dil tahmin motorlarıdır. Ürettikleri önerileri sorgulamadan uygulamak son derece risklidir."
Acil tıp uzmanı Dr. Harvey Castro ise yapay zekaların, yalnızca kelime dizilerini istatistiksel ihtimallere göre oluşturduğunu, doğrulama mekanizması bulunmadığını vurguladı:
"ChatGPT'nin bromür hatası, sağlık tavsiyelerinde bağlamın önemini açıkça ortaya koyuyor."
Castro'ya göre bu tür durumları engellemek için yapay zeka sistemlerinin tıbbi bilgi tabanlarıyla desteklenmesi, risk uyarı mekanizmalarının geliştirilmesi ve mutlaka insan denetimiyle çalıştırılması gerekiyor.