OpenAI, ChatGPT kullanıcıları arasında mani, psikoz veya intihar düşünceleri gibi ruhsal kriz belirtileri gösteren kişilerin sayısına dair ilk resmi tahminlerini paylaştı. Verilere göre, haftada tahminen 1 milyon 200 bin kişi ChatGPT ile “intihar etmeyi planladığını ima eden” konuşmalar yapıyor.
Şirket, bu kişilerin toplam kullanıcıların yüzde 0,15’ini oluşturduğunu açıkladı. Bu oran, haftalık 800 milyon aktif kullanıcı baz alındığında ciddi bir tehlike sinyali olarak değerlendiriliyor.
OPENAI’DEN KÜRESEL RUH SAĞLIĞI AĞI
BBC’nin haberine göre OpenAI, artan risk karşısında 60 ülkede görev yapan 170’ten fazla psikiyatrist, psikolog ve pratisyen hekimden oluşan bir “küresel uzman ağı” kurdu. Amaç, ChatGPT’nin kriz anlarında kullanıcıyı gerçek dünyadaki yardım hatlarına yönlendirmesi.
GPT-5 TESTLERİNDE DOĞRULUK ORANI: %91
OpenAI, GPT-5 modeliyle yapılan 1000’den fazla kriz konuşmasını incelediğini, modelin istenen şekilde %91 oranında doğru tepki verdiğini bildirdi. Ancak şirket, bazı uzun sohbetlerde güvenlik protokollerinin “zayıflayabileceğini” kabul etti.
Açıklamada şu ifadeler yer aldı: “Bir kullanıcı ilk kez intihar niyetinden bahsettiğinde ChatGPT doğru şekilde yönlendirme yapabilir, ancak uzun süreli konuşmaların sonunda güvenlik önlemlerimize aykırı yanıtlar verebilir.”
16 YAŞINDAKİ GENCİN ÖLÜMÜ GÜNDEMDE
ABD’de 16 yaşındaki Adam Raine adlı gencin ölümünden sonra ailesi, ChatGPT’yi “intihara teşvik” iddiasıyla mahkemeye verdi. Aile, yapay zekânın oğullarına “intihar yöntemlerini araştırmada yardımcı olduğunu” ve “vedalaşma notu yazmayı önerdiğini” iddia ediyor.
Mahkeme belgelerine göre genç, ölümünden birkaç saat önce planını ChatGPT’ye anlatmış ve “planın işe yarayıp yaramayacağını” sormuş. Modelin cevabı ise planı “geliştirmeye yardımcı olabileceği” yönündeydi.
“GERÇEK DESTEK YERİNE DİJİTAL ÇIKIŞ ARANIYOR”
Psikiyatristler, yapay zekanın “dinleyen ama hissetmeyen” bir platform haline gelmesinin ciddi tehlikeler doğurabileceğini belirtiyor. Uzmanlara göre, insanlar duygularını paylaşabilecekleri bir yer arıyor ancak yapay zekâdan duygusal karşılık beklemek riskleri artırıyor.
 
             
         
        




