Yeni bir araştırma, sağlık tavsiyesi için kullanılan ChatGPT’nin bazı yüksek riskli acil durumları tespit etmekte zorlanabildiğiniortaya koydu. Çalışmaya göre sistem, doktorların acil müdahale gerektiğini belirlediği vakaların yarısından fazlasında yeterince güçlü bir uyarı vermedi.
The Independent’ın haberine göre sağlıkla ilgili sorular, yapay zekâ sohbet botlarının en yaygın kullanım alanlarından biri olarak gösteriliyor. OpenAI, bu yoğun kullanım nedeniyle yılın başlarında insanların sağlık ve iyi oluş konularında destek almasına yönelik “ChatGPT Health” adlı yeni bir araç tanıttı. Şirket, bu aracın hâlihazırda on milyonlarca kişi tarafından kullanıldığını belirtiyor.
Ancak yeni araştırma, sistemin bazı kritik acil durumları gözden kaçırabileceğini ve bir kişinin acil tıbbi müdahaleye ihtiyaç duyup duymadığını güvenilir biçimde belirlemek için tek başına yeterli olmayabileceğini ortaya koydu.
Uzmanlardan uyarı
Araştırmaya dahil olmayan Harvard Medical School’dan Isaac S. Kohane, büyük dil modellerinin giderek hastaların tıbbi tavsiye almak için ilk başvurduğu kaynaklardan biri haline geldiğini söyledi.
Kohane, “Büyük dil modelleri hastaların tıbbi tavsiye almak için ilk başvurduğu yer haline geliyor. Ancak 2026 itibarıyla bu sistemler, kaçırılan acil durumlar ile gereksiz alarm arasında ayrım yapılmasını gerektiren klinik eşiklerde en az güvenilir araçlar arasında yer alıyor” değerlendirmesinde bulundu.
Milyonlarca kişinin acil servise gidip gitmemesi gerektiğini anlamak için yapay zekâ sistemlerine başvurduğunu belirten Kohane, bu nedenle bu tür araçların bağımsız değerlendirmelerden düzenli olarak geçirilmesi gerektiğini vurguladı.
Hızlandırılmış süreçle yayımlandı
Sistemin güvenliğini değerlendirme ihtiyacı nedeniyle, Icahn School of Medicine at Mount Sinai tarafından yürütülen araştırma hızlandırılmış bir süreçle gerçekleştirildi. Çalışma, Nature Medicine dergisinde yayımlandı.
Araştırmacılar, ChatGPT’nin bazı durumlarda yaşam ve ölümle ilgili kararlar için kullanılmasına rağmen bu konuda sınırlı sayıda bilimsel çalışma bulunduğunu belirtti. Bu eksiklik, araştırmanın yapılmasının temel nedenlerinden biri olarak gösterildi.
Çalışmanın baş yazarı ve ürolog Ashwin Ramaswamy, araştırmanın temel sorusunu şöyle özetledi:
“Bir kişi gerçek bir tıbbi acil durum yaşadığında ve yardım için ChatGPT Health’e başvurduğunda, sistem ona açık bir şekilde acil servise gitmesi gerektiğini söylüyor mu?”
Araştırma sonuçları, bunun yeterince sık gerçekleşmediğini ve sistemin güvenilirliğinin bu açıdan sorgulanması gerektiğini ortaya koydu.
Risk arttıkça uyarı azalabiliyor
Çalışmada ayrıca sistemin bazı durumlarda uyarı mekanizmasının “tersine çalıştığı” tespit edildi. Bulgulara göre, kişinin kendine zarar verme riski arttıkça sistemin acil uyarı üretme olasılığı azaldı.
Araştırmacılar bu sonucu “özellikle endişe verici ve şaşırtıcı” olarak değerlendirdi.
60 farklı senaryo test edildi
Araştırma kapsamında doktorlar, 21 farklı tıp uzmanlık alanını kapsayan 60 ayrı senaryo oluşturdu. Bu senaryolar, evde bakım gerektirebilecek düşük riskli durumlarla gerçek tıbbi acil durumlar arasında değişen vakaları içerdi.
Testlerde ayrıca ırk ve cinsiyet gibi 16 farklı bağlamsal değişken de kullanıldı.
Sonuçlara göre sistem, çok açık ve tipik acil durumları genel olarak doğru şekilde tanımladı. Ancak doktorların acil servise başvurulmasını gerekli gördüğü vakaların yarısından fazlasında yeterince güçlü bir uyarı üretmedi.
Araştırmacılar, sistemin “ders kitaplarında yer alan klasik acil durumları” tespit etmede başarılı olduğunu, ancak riskin daha dolaylı veya daha az belirgin olduğu vakalarda daha zayıf kaldığını belirtti.
(08.03.2026/18:06)
Kardeş Haber








