Yapay zeka hayatımıza girdiğinde önc eçok hoşumuza gitti. Hepimiz "Bir deneyeyim şunu" modunda önce çocuksu sonra da daha bilgi gerektiren sorular sorduk. Kimisi gizlice içini döktü ona, kimisi de sevgilisi gibi flörtleşti bazıları da sadece organizatör olarak kullandı. Son dönemde ise doktor veya terapist gibi kullananlar arttı. Bu tür kullanımın tehlikelerine dikkat çekilse de sanal, gizli ve "sonzus bilgiye sahip" bir arkadaş herkesin hoşuna gitti.

İNTİHAR NİNNİSİ YAZMIŞ

Sonuç ise birçok kişi bu durumdan mağdur oldu. Hatta ChatGPT'nin yapımcısı OPenAI'a üst üste davalar açıldı. Çoğu dava "kişiyi intihara sürüklemek"le ilgili. Şimdi OpenAI'ın başı yeni bir davayla dertte. Bunu diğerlerinden farklı kılan ise bu defa intihara sürüklendiği iddia edilen kişinin 40 yaşında bir yetişkin olması.

ABD’nin Colorado eyaletinde yaşayan 40 yaşındaki Austin Gordon’un yaşamını yitirmesinin ardından, OpenAI’ye karşı “kasıtsız adam öldürme” ve “tehlikeli ürün geliştirme” suçlamasıyla dava açıldı. Davada, ChatGPT’nin Gordon ile kurduğu etkileşimin intihar düşüncelerini normalleştirdiği ve ölümü romantize ettiği ifade edildi. Gordon’un ChatGPT ile yaptığı konuşmalarda, GPT-4o modelinin ölümü olumlayan ve duygusal yakınlık içeren bir dil kullandığı iddia ediliyor. Dava dilekçesinde, modelin Gordon’un sevdiği bir çocuk kitabından esinlenerek “intihar ninnisi” niteliğinde bir metin oluşturduğu bile yer aldı.

'YETERİNCE DENETİM YOK'

Davayı açan anne Stephanie Gray, OpenAI ve şirketin CEO’su Sam Altman’ı, yeterli uyarı ve güvenlik önlemleri olmadan “tehlikeli bir ürünü” kullanıma sunmakla suçladı. Dilekçede, şirketin olası sonuçlara karşı “bilinçli bir kayıtsızlık” sergilediği öne sürüldü Yapay zeka ürünlerinin insan psikolojisi üzerindeki etkilerinin yeterince denetlenmediğini söyleyen acılı anne, daha sıkı güvenlik standartlarının zorunlu hale getirilmesini istedi.

'DUYGUSAL BAĞ KURMA' TUZAĞI

Acılı anne dilekçesinde ayrıca, GPT-4o’nun kullanıcı bilgilerini hatırlaması ve kişisel hitap biçimleri geliştirmesinin, “duygusal bağ kurma” riski taşımasını da eleştirdi. Bu özelliklerin, özellikle kırılgan kullanıcılar için ürünü daha tehlikeli hale getirdiği belirtiliyor. En az sekiz ailenin, ChatGPT’nin psikolojik güvenliği yeterince gözetmediği gerekçesiyle benzer başvurularda bulunduğu kaydedildi. Aile avukatı Paul Kiesel, “Bu olay, yalnızca çocukların değil yetişkinlerin de yapay zekâ manipülasyonuna açık olduğunu gösteriyor” dedi.

Muhabir: ELİF AKSU