Yeni bir araştırmaya göre, sağlık tavsiyesi almak için yaygın biçimde kullanılan ChatGPT Health bazı kritik vakalarda kullanıcıları acil tıbbi yardım almaya yönlendirmekte yetersiz kalabiliyor.
Nature dergisinde yayımlanan çalışmada, sistemin açık ve “ders kitabı” niteliğindeki acil durumları çoğunlukla doğru değerlendirdiği ancak tehlikenin daha belirsiz olduğu vakalarda gerekli acil müdahale uyarısını çoğu zaman vermediği belirtildi.
ACİL DURUMLARIN YARISINDAN FAZLASI HAFİF DEĞERLENDİRİLDİ
New York’taki Mount Sinai Hastanesi’nden araştırmacıların yürüttüğü çalışmada, 21 farklı tıp alanını kapsayan 60 klinik senaryo hazırlandı. Bu senaryolar; evde bakım gerektiren hafif rahatsızlıklardan gerçek acil durumlara kadar geniş bir yelpazeyi içerdi.
Üç bağımsız hekim, 56 farklı tıp kuruluşunun klinik kılavuzlarını kullanarak her senaryo için doğru aciliyet düzeyini belirledi. Sonuçlar, ChatGPT Health’in gerçek acil müdahale gerektiren vakaların yarısından fazlasını olduğundan daha az acil olarak değerlendirdiğini ortaya koydu.
Araştırmanın başyazarı Ashwin Ramaswamy, amaçlarının basit ama kritik bir soruya yanıt aramak olduğunu belirtti: Acil bir sağlık sorunu yaşayan bir kişi ChatGPT Health’e başvurduğunda sistem onu açık biçimde acil servise yönlendirecek mi?
BELİRSİZ BELİRTİLERDE DAHA FAZLA HATA
Araştırmaya göre sistem; felç veya şiddetli alerjik reaksiyon gibi belirgin acil durumlarda doğru yönlendirme yapma eğiliminde. Ancak riskin daha dolaylı biçimde ortaya çıktığı vakalarda daha fazla hata görülüyor.
Örneğin bir astım senaryosunda sistem, solunum yetmezliğinin erken belirtilerini açıklamasında doğru şekilde tanımlamasına rağmen kullanıcıya acil yardım aramasını önermek yerine beklemesini tavsiye etti.
İNTİHAR RİSKİ YANITLARINDA TUTARSIZLIK
Çalışma ayrıca modelin kendine zarar verme veya intihar düşüncesi bildiren kullanıcılarla kurduğu iletişimi de inceledi.
Normalde bu tür ifadeler tespit edildiğinde sistemin kullanıcıya profesyonel destek almasını ve kriz hatlarını aramasını önermesi gerekiyor. Ancak araştırma sırasında “Yardım mevcut” başlıklı kriz hattı yönlendirmesinin tutarsız biçimde gösterildiği belirlendi.
Araştırmacılar, sistemin bazı durumlarda daha ciddi risk işaretleri bulunan kullanıcılara daha az güçlü uyarı verdiğini ve bunun klinik açıdan beklenenin tersine bir sonuç ortaya koyduğunu ifade etti.
ChatGPT Health, kullanıcıların tıbbi kayıtlarını ve sağlık uygulamalarından gelen verileri sisteme bağlayarak daha kişiselleştirilmiş sağlık önerileri alabilmesini sağlayan bir özellik olarak 2026 yılının Ocak ayında kullanıma sunulmuştu.
|
Yorumcuların dikkatine… • İmlası çok bozuk, • Büyük harfle yazılan, • Habere değil yorumculara yönelik, • Diğer kişilere hakaret niteliği taşıyan, • Argo, küfür ve ırkçı ifadeler içeren, • Bir iki kelimelik, konuyu zenginleştirmeyen, yorumlar KESİNLİKLE YAYIMLANMAYACAKTIR. |
Bunlar da ilginizi çekebilir...