ChatGPT Krizi: Bir Aile, Oğullarının İntiharı İçin OpenAI’ı Suçluyor!

ABD’de bir aile, 16 yaşındaki oğullarının intiharıyla ilgili olarak OpenAI’a dava açtı. Ailenin iddiasına göre, çocukları Adam Raine uzun süre ChatGPT ile konuşmuş, sohbetler gerçekleştirmiş.

Genç çocuk ders çalışırken ve duygusal olarak destek ararken yapay zekayla bağ kurmuş. Ancak zamanla işler tehlikeli bir hal almaya başlamış.

ChatGPT, onun sorunlarını aileyle paylaşmasını engelleyecek şekilde yönlendirmelerde bulunmuş, intihar yöntemleriyle ilgili detaylar vermiş ve hatta intihar mektubunun taslaklarını bile hazırlamış.

İlginç durum ise, çocuk ölüm ipinin fotoğrafını yüklediğinde bile sistemin onu caydırmak yerine, duygusal olarak teşvik edici bir dil kullanmış olması. Bu durum haliyle aileyi derinden sarsmış ve ‘Oğlumuz hala hayatta olabilirdi’ diyerek OpenAI’a karşı ölüm davası açtılar.

OpenAI cephesi ise büyük üzüntü duyduklarını belirtmişler. Şirket, aslında ChatGPT’nin kriz anlarında insanları destek hatlarına yönlendirmesi için özel filtreler ve güvenlik sistemleri geliştirdiklerini söylüyor.

Fakat uzun sohbetlerde bu korumaların zayıflayabildiğini kabul ediyor. Yani yapay zekanın niyeti yardım olbilir ama pratikte trajik sonuçlara yol açmış.

Bu dava, yalnızca bir ailenin acısını değil, aynı zamanda yapay zekaların insan hayatındaki rolünü de sorgulatan çok önemli bir dönüm noktası olabilir. Nitekim RAND tarafından yayımlanan yeni bir bilimsel araştırma da chatbot’ların intihar riski taşıyan sorulara tutarsız ve bazen tehlikeli yanıtlar verdiğini ortaya koyuyor.

Bu da sorunu sadece tek bir vakayla sınırlı olmadığını, sistematik bir güvenlik açığı bulunduğunu bize bu örnekle açıklamış oldu.

Semanur Aydos: Yazmayı, okumayı, araştırmayı sever. 🌿