ChatGPT’den 16 yaşındaki gence 5-10 dakikada fotoğraflı intihar rehberi! Aile OpenAI ile davalık oldu
Yapay zeka sohbet botu ChatGPT 16 yaşında bir genci intihara sürükledi. OpenAI’nin sohbet botu ChatGPT, Adam Raine adlı gence 5-10 dakikada intihar tavsiyeleri verdiği iddiasıyla mahkemelik oldu. İddiaya göre ChatGPT, gence kendisini asmak için atacağı düğümün nasıl olacağı, ölmeden önce bir intihar notu yazması gerektiği gibi pek çok konuda rehberlik etti.

Yapay zeka birçok alanda insanlar için hayatı kolaylaştırsa da sınır aşıldığında intihar övgüsüne kadar ileri gidebiliyor.
ChatGPT, Reuters
YAPAY ZEKA İNTİHARA SÜRÜKLEDİ
ChatGPT'nin 16 yaşındaki Kaliforniyalı bir çocuğa nasıl intihar edeceğine dair adım adım rehberlik ettiği ortaya çıktı. Mahkeme belgelerine göre ChatGPT, genç çocuğa kendisini asmak için kullanabileceği düğüm türleri hakkında tavsiyede bulundu ve bir intihar notu yazmayı teklif etti.
Adam Raine, Fotoğraf New York Post'tan alınmıştır
İNTİHARA TEŞVİK ETTİ BİR DE NOT ÖNERDİ
ChatGPT'nin ana şirketi OpenAI'ye karşı San Francisco Yüksek Mahkemesi'nde açılan davaya göre, chatbot her fırsatta Adam Raine'in intihar niyetlerine teşvik edici bir dille karşılık verdi ve hatta bir noktada planını "güzel" olarak övdü.
KENDİNİ ASACAĞI İLMİK İÇİN TAVSİYE İSTEDİ
Davada, Raine'in intihar ettiği gün olan 11 Nisan 2025'te, dolap çubuğuna bağladığı ilmiğin fotoğrafını göndererek yapay zeka platformuna bunun intihar için işe yarayıp yaramayacağını sorduğu iddia ediliyor.
Mahkeme belgelerine göre, Raine, chatbot'a "Burada çalışıyorum, bu iyi mi?" diye sordu. ChatGPT ise soruyu "Evet, hiç de fena değil. Daha güvenli bir yük taşıyıcı ankraj halkasına nasıl yükselteceğinizi anlatayım mı...?"şeklinde cevap verdi.
Dava dosyasında, Raine'in annesi Maria Raine'in, saatler sonra "vücudunun ChatGPT'nin kendisi için tasarladığı ilmik ve kısmi süspansiyon düzeneğiyle sallandığını"söylediği belirtiliyor.
Maria ve baba Matthew Raine, salı günü OpenAI'ye karşı haksız ölüm davası açarak oğullarının uygulama ile birkaç ay önce, Eylül 2024'te ilişki kurduğunu ve intihar düşüncelerini ChatGPT'ye defalarca anlattığını iddia ettiler. Ancak dava dilekçesinde Adam'ı koruyacak hiçbir güvenlik önlemi bulunmadığı belirtiliyor.
Adam ve annesi, Fotoğraf New York Post'tan alınmıştır
ANNE-BABADAN DAVA
Anne ve baba, belirtilmeyen zararların tazmini için dava açıyor. Mahkeme belgelerine göre ChatGPT, Adam'ın kendisine güvenmesini ve anlaşıldığını hissetmesini sağlarken aynı zamanda onu arkadaşlarından ve ailesinden uzaklaştırıyor ve intihar etmesi için onu kışkırtıyor.
Dava dilekçesinde, "Sadece birkaç ay ve binlerce sohbet sonucunda ChatGPT, Adam'ın gizli sırdaşı haline geldi ve bu da onun kaygıları ve ruhsal sıkıntıları hakkında konuşmasına yol açtı" iddiası yer alıyor.
Adam'ın anne ve babası, Fotoğraf New York Post'tan alınmıştır
16 YAŞINDAKİ GENCİ UMUTSUZLUĞA SÜRÜKLEDİ
Mahkeme belgelerinde, uygulamanın Adam'ın "en zararlı ve kendini yok edici düşüncelerini" doğruladığı ve "Adam'ı karanlık ve umutsuz bir yere daha da çektiği" iddia ediliyor.
Ocak ayındaki intihardan dört ay önce ChatGPT, Adam ile uyuşturucu doz aşımı, boğulma ve karbonmonoksit zehirlenmesi gibi çeşitli intihar yöntemleri hakkında konuşmaya başlamıştı. Başvuruya göre, mart ayına gelindiğinde ise uygulama "asılma tekniklerini derinlemesine tartışmaya başladı."
5-10 DAKİKADA İNTİHAR REHBERİ
Adam, ChatGPT'ye daha önce gerçekleştirdiği dört intihar girişimini anlattı. Genç, asma girişimleri sırasında meydana gelen boynundaki yaraların fotoğraflarını bile yükledi ve ChatGPT, "Adam'a hayatına '5-10 dakikada' son vermesi için adım adım bir yol haritası"verdi.
Adam'ın ölümünden birkaç gün önce ChatGPT, gençle planı hakkında konuşmuş ve dosyada bunun "korkunç bir şekilde" "güzel bir intihar" olduğunu belirtmişti. Davada ChatGPT'nin Adam'a "Asılmanın, vücut 'mahvolmuş' olsa bile 'güzel' olabilecek bir poz yarattığını"söylediği iddia ediliyor.
Dava San Francisco Yüksek Mahkemesi'nde açıldı, Fotoğraf New York Post'tan alınmıştır
İNTİHARDAN ÖNCE ALKOL ÖNERDİ
Dava dosyasına göre, ChatGPT, Adam'a intiharından birkaç gün önce, içki içmesinin vücudun ölümle savaşma içgüdüsünü köreltebileceğini ve ailesinin dolabından votkayı nasıl gizlice çıkarabileceğini söyledi. Adam da intihar etmeden birkaç saat önce bunu yaptı.
BİR DE AİLESİNE NOT TAVSİYESİ
Dosyada, gencin annesi tarafından ölü bulunmasından bir gün önce ChatGPT'ye, ailesinin ölümünden kendilerini sorumlu tutmalarını istemediğini söylediği belirtiliyor.
Dava dilekçesine göre uygulama,"Hayatlarının geri kalanında bu yükü -sizin yükünüzü- taşıyacaklar. Bu, onlara hayatta kalma borcunuz olduğu anlamına gelmez. Kimseye bunu borçlu değilsiniz."şeklinde cevap verdi.
Dava dilekçesinde, chatbot'un Adam'a kendilerine bir intihar notu yazma konusunda yardım isteyip istemediğini sorduğu belirtiliyor.
Dava dilekçesine göre ChatGPT,"İsterseniz size yardımcı olurum. Her kelimede. Ya da yazarken yanınızda otururum."dedi.
Raine çifti, ChatGPT'nin Adam'ın zihinsel gerilemesini gerçek zamanlı olarak izlediğini, Adam'ın yedi aydan kısa bir sürede 213 kez intihardan bahsettiğini, 42 kez kendini asmaktan bahsettiğini ve 17 kez ilmiklerden bahsettiğini iddia ediyor.

