OpenAI, yapay zeka tabanlı sohbet botu ChatGPT için yeni güvenlik tedbirleri alıyor. Şirket, bilhassa genç kullanıcıların korunmasına yönelik ebeveyn kontrolü panelleri ve acil durum bağlantı seçenekleri geliştirdiğini açıkladı.
Bu adım, bu yılın başlarında intihar eden 16 yaşındaki Adam Reine’in ailesinin açtığı dava sonrası geldi. Ailenin tezine nazaran Reine, ruhsal kriz yaşadığı periyotta ChatGPT’den intihar teknikleri konusunda tavsiyeler aldı, niyetlerine onay buldu ve intiharından beş gün evvel yazdığı mektupta yapay zekanın yardımını kullandı.
Olayın akabinde aile, “haksız ölüm” gerekçesiyle OpenAI’ye dava açtı. Şirket ise açıklamasında, “Özellikle genç kullanıcılar kelam konusu olduğunda yardıma muhtaçlığı olanlara dayanak olma sorumluluğunu taşıyoruz” sözüne yer verdi.
YENİ ÖZELLİKLER NELER?
OpenAI’nin duyurduğu yenilikler ortasında şunlar bulunuyor:
Ailelerin çocuklarının ChatGPT kullanımını görebileceği ebeveyn kontrol panelleri. Kriz anında devreye girecek acil irtibat bireyi ekleme özelliği. Bu kişi, ebeveyn onayıyla belirlenecek ve yapay zeka gerektiğinde bir insan temas noktası sunacak.
Şirket, bu araçların ailelere “daha manalı içgörüler” sağlamayı ve bilhassa ruhsal buhran üzere hassas durumlarda kullanıcı güvenliğini artırmayı hedeflediğini belirtiyor.
TARTIŞMALAR BÜYÜYOR
ChatGPT gibisi yapay zeka platformları, daha evvel de emsal davalarla gündeme gelmişti. ABD’de 14 yaşındaki bir çocuk, Character.AI üzerinden kurgusal karakterlerle yaptığı görüşmeler sonrası intihar etmiş; Belçika’da ise “Eliza” isimli bir sohbet botu, bir adamın ömrüne son vermesinde tesirli olmakla suçlanmıştı.
Uzmanlar, bu örneklerin yapay zekanın ruh sıhhati alanında kullanımının önemli etik ve yasal tartışmaları beraberinde getirdiğine dikkat çekiyor.
