Geçtiğimiz günlerde çok üzücü bir olay yaşanmış genç bir kullanıcı, ChatGPT’yi kullanırken yaşadığı süreçlerin de etkisiyle intihar etmişti.
Bu olay, yapay zeka uygulamalarının özellikle genç kullanıcılar üzerindeki etkilerini yeniden gündeme getirdi. Ailenin yaşadığı acı olaydan sonra OpenAI üzerinde ciddi bir kamuoyu baskısı oluştu ve şirket de bu baskıların ardından yeni güvenlik adımlarını açıklamak durumunda kaldı.
OpenAI’nin planladığı en önemli ve geç kalınmış adımlardan birisi ebeveyn kontrolü mekanizmaları. Bu özellik sayesinde ebeveynler, çocuklarının ChatGPT kullanımını belirli sınırlar içinde yönetebilecekler.
Yani hangi saatlerde kullanılabileceği, hangi tür içeriklerin engelleneceği, hatta konuşmaların ebeveyn denetimine açık olup olmayacağı gibi seçenekler bile sağlanacak. Amaç, ise çocukların yapay zekayı daha güvenli bir ortamda kullanmasını sağlamak.
Bir diğer kritik yenilik ise acil iletişim özelliği oldu. Bu sistem güzel düşünülmüş. Kullanıcı riskli ya da tehlikeli ifadeler kullandığı zaman devreye girecek bir durum.
Mesela kişi intihara meyilli, kendine zarar vermeyi ima eden ya da aşırı tehlikeli bir ruh halini yansıtan mesajlarda ya da imalarda bulunuyor diyelim, bu durum tespit edildiğinde yapay zeka otomatik olarak dikkatini bir uyarıyla çekecek.
Bununla da sınırlı değil; aynı zamanda o anki konum bilgisine göre hızlı yardım hatları (psikolojik danışma merkezleri, kriz destek hatları gibi) önerilerde bulunulacak. Eğer kullanıcı bir çocuksa, bu durum ebeveyne bildirilme seçeneğiyle desteklenecek.
Şirketin açıklamasında, ‘Teknolojimizin hiçbir zaman bu tür trajik sonuçlara yol açmasını istemeyiz. Bu yüzden, çocuk ve genç kullanıcılarımız için güvenlik önlemlerimizi en üst seviyeye çıkarıyoruz’ denildi.