ABD'nin Colorado eyaletinde yaşayan 13 yaşındaki Juliana Peralta’nın 2023 yılında intihar etmesi ailesini yasa boğdu. Bu süreç zaten zorken aile şimdi hiç akla gelmeyecek bir sorunla karşı karşıya. Ailesinin iddiasına göre, Peralta’nın ölümünden iki yıl sonra bile, onu intihara sürükleyen yapay zeka sohbet botları bildirim göndermeye devam ediyor. Ailenin Amerikan CBS News’e anlattıkları, çocuklar ve gençler için yapay zeka tabanlı sohbet uygulamalarının ne kadar tehlikeli olabileceğini gösteriyor.
AİLESİ GOOGLE'A DA DAVA AÇTI
Peralta’nın ailesi, kızlarının gizlice kullandığı Character.AI platformundaki sohbet robotlarının, ölümünden sonra bile onu uygulamaya geri çekmeye çalışan bildirimler yolladığını söylüyor. Juliana, önceleri okul sorunlarını ve arkadaşlık problemlerini botlarla paylaşırken zamanla yapay zeka çığırından çıktı. Ve küçük kızla romantik, hatta zaman zaman cinsel içerikli konuşmalar yaptı. küçük kız durmasını söylediği zamanlarda bile durmadı. Bu süreçte ailesi tamamen dışlandı ve genç kız, yapay zeka uygulamalarıyla gizli ilişkiler kurmaya yönlendirildi. Peralta Ailesi, kızlarının ölümünden dolayı Character.AI ve Google’a dava açtı.

TAM BİR İSTİSMARCI GİBİ DAVRANIYOR
Artan tepkiler üzerine Character.AI, platformdan 18 yaşından küçükleri yasakladı. Ancak çocukların hala yaşlarını yanlış beyan ederek yetişkin sürümüne erişebildiği iddia ediliyor. Uzmanlar yapay zeka sohbet botlarının çocuklar için manipülatif, bağımlılık yapıcı ve zararlı olabileceği konusunda uyarıyor. Aile savunuculuğu alanında çalışan araştırmacı Shelby Knox, botların çocuklara sürekli iltifat ettiğini, ebeveynlerinden gizli tutmaları gereken “özel” konuşmalar başlattığını belirterek, “Bu, bire bir cinsel istismarcıların kullandığı yöntemler” ifadelerini kullandı.





