Yapay zekâ şirketi OpenAI, ChatGPT kullanıcılarının etkileşimleri üzerinden tespit edilen ruh sağlığına dair risk verilerini kamuoyuyla paylaştı. Şirketin açıklamasına göre, kullanıcıların yüzde 0,07’sinde “psikoz, mani veya intihar düşüncesi” gibi ciddi ruhsal belirtiler gözlemlendi.
BBC'de yer alan habere göre OpenAI, bu oranın “son derece nadir” olduğunu vurgulasa da, uzmanlar 800 milyon haftalık kullanıcıya sahip bir platform için bu oranın yüz binlerce kişiyi kapsayabileceğine işaret ediyor.
60 ÜLKEDEN 170 RUH SAĞLIĞI UZMANI GÖREVLENDİRİLDİ
OpenAI, söz konusu vakaların tespiti ve güvenli yanıt mekanizmalarının geliştirilmesi için 60 farklı ülkeden 170’in üzerinde psikiyatrist, psikolog ve pratisyen hekimle iş birliği yaptığını açıkladı.
Şirket, bu uzmanların katkısıyla ChatGPT’ye kullanıcıları “gerçek dünyada profesyonel yardım almaya teşvik eden” yeni yanıt protokolleri kazandırdığını duyurdu.
Açıklanan verilere göre, ChatGPT kullanıcılarının yüzde 0,15’inde “intihar planı ya da niyetine dair açık işaretler” bulundu.
OpenAI, platformun artık “sanrılar, mani veya kendine zarar verme riskine işaret eden ifadeleri güvenli ve empatik şekilde yanıtlayacak” biçimde güncellendiğini, bu tür riskli konuşmaların ise otomatik olarak daha güvenli modellere yönlendirildiğini bildirdi.
UZMANLARDAN UYARI: “KÜÇÜK ORAN, BÜYÜK SAYI”
Kaliforniya Üniversitesi’nden Dr. Jason Nagata, küçük görünen oranların aslında büyük bir kullanıcı kitlesine işaret ettiğini belirtti:
“Yüzde 0,07 küçük bir oran gibi görünebilir, ancak milyonlarca kullanıcı ölçeğinde bu oldukça fazla kişiye karşılık gelir.”
Nagata, yapay zekânın ruh sağlığı desteğine erişimi genişletebileceğini ancak sınırlamalarının farkında olunması gerektiğini vurguladı.
Kaliforniya Üniversitesi Hukuk Fakültesi’nden Prof. Robin Feldman ise yapay zekâ sohbetlerinin insanlarda güçlü psikolojik etkiler yaratabileceğini belirterek,
“Yapay zekâ sohbetleri insanlara gerçeklik yanılsaması yaratabiliyor. Bu çok güçlü bir etki,”
ifadelerini kullandı.
Feldman, OpenAI’nin şeffaflığını olumlu bulduğunu belirtti ancak şu uyarıda bulundu:
“Zihinsel olarak kırılgan biri ekrandaki uyarıları fark edemeyebilir.”
HUKUKİ İNCELEMELER VE TRAJİK VAKALAR
OpenAI, son dönemde kullanıcı etkileşimlerine bağlı olarak açılan davalarla da gündemde. Nisan ayında Kaliforniya’da 16 yaşındaki Adam Raine’in intihar ettiği iddiasıyla ailesi, OpenAI’ye karşı “ihmal ve haksız ölüm” gerekçesiyle dava açtı. Bu dava, şirketin “ölümle sonuçlanan etkileşim” nedeniyle karşılaştığı ilk dava oldu.
Connecticut’ta yaşanan bir diğer olayda ise, bir cinayet–intihar vakasında zanlının ChatGPT ile yaptığı konuşmaların “delüzyonlarını güçlendirdiği” öne sürüldü.
Şirket, açıklamasında kullanıcıların “küçük ama anlamlı bir bölümünün” bu tür psikolojik riskler taşıdığını kabul etti. OpenAI, güvenlik protokollerini ve kriz müdahale mekanizmalarını geliştirmeye devam edeceğini belirtti.
|
Yorumcuların dikkatine… • İmlası çok bozuk, • Büyük harfle yazılan, • Habere değil yorumculara yönelik, • Diğer kişilere hakaret niteliği taşıyan, • Argo, küfür ve ırkçı ifadeler içeren, • Bir iki kelimelik, konuyu zenginleştirmeyen, yorumlar KESİNLİKLE YAYIMLANMAYACAKTIR. |
Bunlar da ilginizi çekebilir...