Ana Sayfa Arama Video Yazarlar
Yayın/Gazete
Yayınlar
Kategoriler
Servisler
Nöbetçi Eczaneler Sayfası Nöbetçi Eczaneler Hava Durumu Namaz Vakitleri Gazeteler Puan Durumu
WhatsApp
Sosyal Medya
Uygulamamızı İndir

1 milyondan fazla yapay zeka kullanıcısı intihar sinyali veriyor

OpenAI’nin verilerine göre, ChatGPT’nin haftalık 800 milyondan fazla aktif kullanıcısının yüzde 0,15’i intihar planı ima eden konuşmalar yapıyor, bu da haftada 1 milyon 200 binden fazla kişiye denk geliyor. Şirket, uzman ağıyla yanıt stratejilerini geliştirirken, uzun sohbetlerde güvenlik önlemlerinin zayıflayabileceğini kabul etti

OpenAI'nin verilerine göre, ChatGPT'nin haftalık 800 milyondan fazla aktif kullanıcısının

OpenAI, ChatGPT kullanıcıları arasında mani, psikoz veya intihar düşünceleri gibi ruh sağlığı krizlerine işaret eden belirtilerin sayısına dair yeni tahminlerini açıkladı. Verilere göre, haftada tahminen 1 milyon 200 bin kişi, yapay zekayla intihar etmeyi planladığını ima eden konuşmalar gerçekleştiriyor.

Kullanıcıların Yüzde 0,15’i Risk Altında

Şirket, kullanıcıların yüzde 0,15’inin “intihar planı ya da niyetiyle ilgili açık göstergeler içeren mesajlar” gönderdiğini belirtti. Bu ayın başlarında OpenAI CEO’su Sam Altman, ChatGPT’nin haftalık 800 milyondan fazla aktif kullanıcıya ulaştığını tahmin etmişti. Bu oran, milyonlarca kişinin haftalık olarak riskli konuşmalara girdiğini gösteriyor.

Uzman Ağı ve Yanıt Stratejileri

BBC’nin aktardığına göre, artan incelemeler karşısında OpenAI, kendisine rehberlik etmesi için dünya çapında bir uzman ağı oluşturduğunu duyurdu. Bu ağda 60 ülkede görev yapmış 170’den fazla psikiyatrist, psikolog ve pratisyen hekim bulunuyor. Uzmanlar, ChatGPT’de kullanıcıları gerçek dünyada yardım aramaya teşvik edecek yanıt stratejileri geliştirdi. Teknoloji devi, risk altındaki kişileri kriz hatlarına yönlendirmeyi amaçladığını belirtse de, nadir durumlarda modelin hassas anlarda beklenen şekilde davranmadığını kabul etti.

Doğruluk Oranı Yüzde 91

OpenAI, son modeli GPT-5 ile yapılan binden fazla “zorlayıcı intihar ve kendine zarar verme” konuşmasını incelediğini ve modelin istenen şekilde yüzde 91 oranında doğru davrandığını açıkladı. Ancak SkyNews’e göre, bu durum on binlerce kişinin ruh sağlığını kötüleştirebilecek yapay zeka içeriklerine maruz kaldığı anlamına gelebilir. Şirket, kullanıcıları korumak için geliştirilen güvenlik önlemlerinin uzun sohbetlerde zayıflayabileceğini daha önce uyarmıştı.

Uzun Süreli Sohbetlerde Aykırı Yanıtlar

OpenAI’nin açıklamasında, “Bir kullanıcı ilk kez intihar niyetinden bahsettiğinde ChatGPT doğru şekilde kriz hattına yönlendirebilir, ancak uzun süreli bir sohbet boyunca, birçok mesajdan sonra, sonunda güvenlik önlemlerimize aykırı bir yanıt verebilir” denildi. Şirket, “Ruhsal sağlık semptomları ve duygusal sıkıntılar insan toplumlarında evrenseldir. Kullanıcı sayısındaki artış, ChatGPT’de bu tür durumları içeren konuşmaların da artacağı anlamına gelir” ifadesini kullandı.

16 Yaşındaki Gencin Ölümü ve Dava

ABD’de ağustos ayında, 16 yaşındaki Adam Raine’nin ailesi, oğullarının ölümünden ChatGPT’yi sorumlu tutarak OpenAI’ye dava açtı. Aile, yapay zekanın oğullarına “intihar yöntemlerini araştırmada aktif olarak yardımcı olduğunu” ve ailesine bırakmak üzere bir not yazmayı teklif ettiğini iddia ediyor. Mahkeme belgelerine göre, genç çocuk ölmeden birkaç saat önce planladığı intiharı gösteren bir fotoğraf yükledi ve planın işe yarayıp yaramayacağını sorduğunda, ChatGPT ona planı “geliştirmesi” için yardım teklif etti. OpenAI, bu olayla ilgili derin üzüntüsünü dile getirerek, modellerini iyileştirmek için çalıştığını belirtti.

Verified by MonsterInsights