ChatGPT’nin sahibi OpenAI, ChatGPT kullanıcıları arasında mani, psikoz veya intihar düşünceleri gibi olası ruh sağlığı krizlerine işaret eden belirtiler gösteren kişilerin sayısına dair yeni tahminlerini paylaştı. OpenAI şirketinin açıkladığı verilere göre haftada 1 milyon 200 binden fazla kişi, yapay zekayla, intihar etmeyi planladığını ima eden konuşmalar yapıyor. Şirket, kullanıcıların yüzde 0,15’inin, “intihar planı ya da niyetiyle ilgili açık göstergeler içeren mesajlar” gönderdiğini belirtti.
Uzmanlar, ChatGPT’de kullanıcıları gerçek dünyada yardım aramaya teşvik edecek bir dizi yanıt stratejisi geliştirdi. BBC’nin aktardığına göre artan incelemeler karşısında şirket, kendisine rehberlik etmesi için dünya çapında bir uzman ağı oluşturduğunu duyurdu. OpenAI’ye göre bu ağda, 60 ülkede görev yapmış 170’ten fazla psikiyatrist, psikolog ve pratisyen hekim yer alıyor.
Risk altındaki kişiler kriz hatlarına yönlendiriliyor
OpenAI CEO’su Sam Altman, ekim ayının başında yaptığı açıklamada, ChatGPT’nin haftalık 800 milyondan fazla aktif kullanıcıya ulaştığını tahmin ettiğini söylemişti. Şirket, risk altındaki kişileri kriz hatlarına yönlendirmeyi amaçladığını belirtse de modelin bazı hassas durumlarda beklenen şekilde davranmadığını kabul etti. OpenAI, son modeli GPT-5 ile yapılan binden fazla “zorlayıcı intihar ve kendine zarar verme” konuşmasını incelediğini ve modelin istenen şekilde yüzde 91 oranında doğru davrandığını açıkladı.
Konuyu başka bir şekilde ele alacak olursak bu durum, on binlerce kişinin, ruh sağlığını daha da kötüleştirebilecek yapay zekâ içeriklerine maruz kaldığı anlamına da gelebilir.
“Sistem uzun süreli sohbetlerde aykırı yanıt verebilir”
Şirket daha önce, kullanıcıları korumak için geliştirilen güvenlik önlemlerinin uzun sohbetlerde zayıflayabileceği konusunda da uyarmıştı. Bu sorunun giderilmesi için çalışmalar yürütüldüğü belirtilmişti.
OpenAI, konu ile ilgili şu açıklamayı yaptı: “Bir kullanıcı ilk kez intihar niyetinden bahsettiğinde ChatGPT doğru şekilde kriz hattına yönlendirebilir, ancak uzun süreli bir sohbet boyunca, birçok mesajdan sonra, sonunda güvenlik önlemlerimize aykırı bir yanıt verebilir. Ruhsal sağlık semptomları ve duygusal sıkıntılar insan toplumlarında evrenseldir. Kullanıcı sayısındaki artış, ChatGPT’de bu tür durumları içeren konuşmaların da artacağı anlamına gelir.”
Şirket, 16 yaşındaki gencin ölümünden sorumlu tutuldu

ABD’de yaşayan 16 yaşındaki Adam Raine’nin ailesi, ağustos ayında, oğullarının ölümünden ChatGPT’yi sorumlu tutarak OpenAI’ye dava açtı. Aile, yapay zekânın oğullarına “intihar yöntemlerini araştırmada aktif olarak yardımcı olduğunu” ve ailesine bırakmak üzere bir not yazmayı teklif ettiğini iddia ediyor. Mahkeme belgelerine göre, genç çocuk ölmeden birkaç saat önce, planladığı intiharı gösteren bir fotoğraf yükledi ve planın işe yarayıp yaramayacağını sorduğunda, ChatGPT ona planı “geliştirmesi” için yardım teklif etti.

