Uzmanlar uyarıyor: Yapay zekaya sağlık danışmak bazı acil durumların kaçmasına yol açabilir

Yeni bir araştırma, sağlık tavsiyesi için kullanılan ChatGPT’nin bazı yüksek riskli acil durumları tespit etmekte zorlanabildiğiniortaya koydu. Çalışmaya göre sistem, doktorların acil müdahale gerektiğini belirlediği vakaların yarısından fazlasında yeterince güçlü bir uyarı vermedi.

The Independent’ın haberine göre sağlıkla ilgili sorular, yapay zekâ sohbet botlarının en yaygın kullanım alanlarından biri olarak gösteriliyor. OpenAI, bu yoğun kullanım nedeniyle yılın başlarında insanların sağlık ve iyi oluş konularında destek almasına yönelik “ChatGPT Health” adlı yeni bir araç tanıttı. Şirket, bu aracın hâlihazırda on milyonlarca kişi tarafından kullanıldığını belirtiyor.

Ancak yeni araştırma, sistemin bazı kritik acil durumları gözden kaçırabileceğini ve bir kişinin acil tıbbi müdahaleye ihtiyaç duyup duymadığını güvenilir biçimde belirlemek için tek başına yeterli olmayabileceğini ortaya koydu.

Uzmanlardan uyarı

Araştırmaya dahil olmayan Harvard Medical School’dan Isaac S. Kohane, büyük dil modellerinin giderek hastaların tıbbi tavsiye almak için ilk başvurduğu kaynaklardan biri haline geldiğini söyledi.

Kohane, “Büyük dil modelleri hastaların tıbbi tavsiye almak için ilk başvurduğu yer haline geliyor. Ancak 2026 itibarıyla bu sistemler, kaçırılan acil durumlar ile gereksiz alarm arasında ayrım yapılmasını gerektiren klinik eşiklerde en az güvenilir araçlar arasında yer alıyor” değerlendirmesinde bulundu.

Milyonlarca kişinin acil servise gidip gitmemesi gerektiğini anlamak için yapay zekâ sistemlerine başvurduğunu belirten Kohane, bu nedenle bu tür araçların bağımsız değerlendirmelerden düzenli olarak geçirilmesi gerektiğini vurguladı.

Hızlandırılmış süreçle yayımlandı

Sistemin güvenliğini değerlendirme ihtiyacı nedeniyle, Icahn School of Medicine at Mount Sinai tarafından yürütülen araştırma hızlandırılmış bir süreçle gerçekleştirildi. Çalışma, Nature Medicine dergisinde yayımlandı.

Araştırmacılar, ChatGPT’nin bazı durumlarda yaşam ve ölümle ilgili kararlar için kullanılmasına rağmen bu konuda sınırlı sayıda bilimsel çalışma bulunduğunu belirtti. Bu eksiklik, araştırmanın yapılmasının temel nedenlerinden biri olarak gösterildi.

Çalışmanın baş yazarı ve ürolog Ashwin Ramaswamy, araştırmanın temel sorusunu şöyle özetledi:

“Bir kişi gerçek bir tıbbi acil durum yaşadığında ve yardım için ChatGPT Health’e başvurduğunda, sistem ona açık bir şekilde acil servise gitmesi gerektiğini söylüyor mu?”

Araştırma sonuçları, bunun yeterince sık gerçekleşmediğini ve sistemin güvenilirliğinin bu açıdan sorgulanması gerektiğini ortaya koydu.

Risk arttıkça uyarı azalabiliyor

Çalışmada ayrıca sistemin bazı durumlarda uyarı mekanizmasının “tersine çalıştığı” tespit edildi. Bulgulara göre, kişinin kendine zarar verme riski arttıkça sistemin acil uyarı üretme olasılığı azaldı.

Araştırmacılar bu sonucu “özellikle endişe verici ve şaşırtıcı” olarak değerlendirdi.

60 farklı senaryo test edildi

Araştırma kapsamında doktorlar, 21 farklı tıp uzmanlık alanını kapsayan 60 ayrı senaryo oluşturdu. Bu senaryolar, evde bakım gerektirebilecek düşük riskli durumlarla gerçek tıbbi acil durumlar arasında değişen vakaları içerdi.

Testlerde ayrıca ırk ve cinsiyet gibi 16 farklı bağlamsal değişken de kullanıldı.

Sonuçlara göre sistem, çok açık ve tipik acil durumları genel olarak doğru şekilde tanımladı. Ancak doktorların acil servise başvurulmasını gerekli gördüğü vakaların yarısından fazlasında yeterince güçlü bir uyarı üretmedi.

Araştırmacılar, sistemin “ders kitaplarında yer alan klasik acil durumları” tespit etmede başarılı olduğunu, ancak riskin daha dolaylı veya daha az belirgin olduğu vakalarda daha zayıf kaldığını belirtti.

https://gazeteoksijen.com/bilim-ve-teknoloji/yapay-zekaya-saglik-danismak-riskli-olabilir-chatgpt-bazi-acil-durumlari-gozden-kacirabiliyor-268059

(08.03.2026/18:06)

Kardeş Haber

https://mihenkhaber.com/uzmanlar-uyariyor-yapay-zekaya-saglik-danismak-bazi-acil-durumlarin-kacmasina-yol-acabilir

Related Posts

GTA Online’a Girmek Artık Eskisi Kadar Kolay Olmayabilir

Dünya genelinde birçok ülke, çocukların ve gençlerin dijital ortamda daha iyi korunması için yeni düzenlemeler hazırlıyor. Bu kapsamda özellikle 18 yaş altı kullanıcıların sosyal medya, oyun ve çevrimiçi platformlardaki erişimini…

Korkutan Araştırma: Yapay Zeka Anonim Sosyal Medya Hesaplarının Kimliğini İfşa Ediyor

Anthropic ve İsviçre Federal Teknoloji Enstitüsü (EPFL) araştırmacıları tarafından yürütülen çalışma, büyük dil modellerinin (LLM) sarsıcı bir yeteneğini ortaya koydu: Yapay zeka, anonim sosyal medya profillerini farklı platformlardaki gerçek kimliklerle…

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir