ChatGPT: Tıp hakkında konuşurken bir bota güvenmeyin

Bad Chatty

New member
WELT podcast'lerimizi buradan dinleyebilirsiniz

Gömülü içeriğin görüntülenmesi için, kişisel verilerin iletilmesine ve işlenmesine ilişkin geri alınabilir onayınız gereklidir; çünkü gömülü içeriğin sağlayıcıları, üçüncü taraf sağlayıcılar olarak bu izni gerektirir. [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Anahtarı “açık” konuma getirerek bunu kabul etmiş olursunuz (herhangi bir zamanda iptal edilebilir). Bu aynı zamanda GDPR Madde 49 (1) (a) uyarınca belirli kişisel verilerin ABD dahil üçüncü ülkelere aktarılmasına ilişkin onayınızı da içerir. Bu konuda daha fazla bilgi bulabilirsiniz. Sayfanın altındaki anahtarı ve gizliliği kullanarak onayınızı istediğiniz zaman iptal edebilirsiniz.




emidede açıklanamayan bir daralma, inatçı bir öksürük veya ayak tırnağındaki garip bir nokta: insanların Google'ı çok çeşitli semptomlarla ilgili sorgulaması yeni bir olgu değil ve ChatGPT gibi yapay zeka tabanlı sohbet robotlarının artan popülaritesiyle birlikte, Dijital kendi kendine teşhis olanakları büyümeye devam ediyor gibi görünüyor. Würzburg'da “Nature Medicine” dergisinde yayınlanan bir araştırmaya göre, aslında bu tür yapay zekanın tıbbi yeterliliğine hala büyük şüpheyle bakılıyor.

Würzburg'lu bilim insanları, insanların yapay zeka tarafından üretilen tıbbi tavsiyelere verdiği tepkileri inceledi. Julius Maximilians Üniversitesi'nden Moritz Reis, “Yapay zekanın teknik yeterliliğiyle değil, daha çok yapay zeka çıktısının nasıl algılandığı sorusuyla ilgileniyorduk” diyor.

Üç gruptaki 2.000'den fazla denek aynı tıbbi tavsiyeyi aldı. İlk gruba tavsiyelerin bir doktordan geldiği söylendi. İkinci grupta yapay zeka tabanlı bir chatbot, yaratıcı olarak adlandırıldı ve üçüncü grup, tavsiyenin bir chatbottan geldiğini ancak bir doktor tarafından kontrol edildiğini varsaydı.


ayrıca oku







Test denekleri önerileri güvenilirlik, anlaşılırlık ve empati açısından derecelendirdi. Bir yapay zekanın işin içinde olduğundan şüphelendiklerinde, tavsiyenin daha az empatik ve güvenilir olduğunu algıladılar. Bu aynı zamanda bir doktorun AI önerilerini gözden geçirdiğine inanan grup için de geçerliydi. Dolayısıyla bu tavsiyelere uyma konusunda daha az istekliydiler. Reis, “Yapay zekaya karşı önyargının etkisi çok büyük değil ancak istatistiksel olarak anlamlı” yorumunu yapıyor.


ayrıca oku








Bilişsel psikolog, yapay zeka şüpheciliğini kısmen stereotiplerle açıklıyor: “Birçok kişi bir makinenin empatik olamayacağına inanıyor.” Ancak konu anlaşılabilirlik olduğunda üç grup da tavsiyeyi aynı şekilde değerlendirdi.

Yapay zeka tıpta giderek daha önemli bir rol oynadığından, belirlenen yapay zeka şüpheciliği araştırma grubu için önemlidir. Şu anda yeni yapay zeka uygulamalarına ilişkin çok sayıda çalışma yayınlanıyor. Reis, bunun kamuoyunun kabulünü daha da önemli hale getirdiğini söylüyor: “Yapay zekanın gelecekte tıpta kullanılması sorunu sadece teknik olarak neyin mümkün olduğuyla ilgili değil, aynı zamanda hastaların ne kadar ileri gidebileceğiyle de ilgili.”

Yapay zeka tanıyı koyduğunda


İlgili uygulamalar ve genel olarak yapay zeka hakkında açıklama yapılması gerekmektedir. Reis, “Ayrıca diğer çalışmalar, sonuçta hastayla birlikte nihai karar verme yetkisinin insan doktorunda olmasının hasta güveni açısından ne kadar önemli olduğunu gösterdi” diye vurguluyor.

Bilim insanı şeffaflığın özellikle önemli olduğuna inanıyor: “Bu, örneğin yapay zekanın yalnızca teşhis koymakla kalmayıp aynı zamanda bu sonuca hangi bilginin yol açtığını anlaşılır bir şekilde açıkladığı anlamına geliyor.”

Bu sonuçların kalitesi uzun süredir bilimsel olarak inceleniyor ve değişen derecelerde başarı elde ediliyor. Örneğin, 2023 yılında “Tıbbi İnternet Araştırmaları Dergisi”nde ChatGPT, yüksek düzeyde tanı doğruluğunu kanıtladı: 36 vaka çalışmasıyla test edilen chatbot, vakaların neredeyse yüzde 77'sinde doğru nihai tanıyı koydu.


ayrıca oku


Fütüristik laboratuvarda çalışan bilim adamları






Hollanda'da yapılan bir araştırmaya göre acil servislerdeki teşhis becerileri doktorlarınkine bile yaklaştı. Hollanda'daki bir ilk yardım merkezinde tedavi edilen 30 hastanın anonimleştirilmiş verileriyle donanmış olan ChatGPT, vakaların yüzde 97'sinde doğru tanıyı koydu (“Annals of Acil Tıp,” 2023).

Buna karşılık, 2023 yılında Jama dergisinde yayınlanan bir araştırma, chatbotun 70 tıbbi vaka çalışmasından yalnızca 27 vakaya doğru teşhis koyduğunu ortaya çıkardı. Bu sadece yüzde 39. Jama Pediatrics dergisinde sunulan bir çalışma, bu isabet oranının öncelikle çocukları etkileyen hastalıklarda daha da kötü olduğu sonucuna varmıştır.

“Plos One” dergisinde yayınlanan yakın tarihli bir çalışma, ChatGPT'nin tıp eğitiminde yararlı olup olamayacağını inceledi. Kanada Londra Sağlık Bilimleri Merkezi'ndeki araştırma ekibine göre, sonuçta chatbot yalnızca devasa bir bilgi tabanından faydalanmakla kalmıyor, aynı zamanda bu bilgiyi etkileşimli ve anlaşılır bir şekilde aktarabiliyor.

Grup, semptomları ve hastalığın ilerleyişini tanımlayan tıbbi vaka geçmişlerinden oluşan bir veri tabanından ChatGPT 150 sözde vaka sorgulamalarını besledi. Hem potansiyel hem de mevcut doktorlardan cevap-seçim prosedürünü kullanarak teşhis koymaları ve bir tedavi planı geliştirmeleri istenir.


ayrıca oku


Metamizol tabletleri






Bu testte ChatGPT vakaların yarısından biraz azında (150 vakanın 74'ünde) doğru sonuç verdi. Çalışmada ChatGPT'nin laboratuvar değerlerini ve görüntüleme testlerini yorumlamakta zorluk çektiği ve önemli bilgileri kaçırdığı ortaya çıktı. Buna göre yazarlar, ChatGPT'nin mevcut haliyle bir teşhis aracı olarak doğru olmadığı ve chatbot'u bir teşhis aracı ve aynı zamanda bir öğretim yardımcısı olarak kullanırken dikkatli olunması gerektiği sonucuna varmışlardır.

Çalışma, “Yüksek alaka düzeyi ve nispeten düşük doğruluğun birleşimi, yanıltıcı olabilecek önemli bilgiler sunabileceğinden, tıbbi tavsiye için ChatGPT'ye güvenilmemesine karşı çıkıyor” diyor – büyük olasılıkla ChatGPT için de geçerli olan bir uyarı Bu tıp dışından kişiler için de geçerli Chatbot'u dijital kendi kendine teşhis için kullananlar.


Burada üçüncü taraflardan içerik bulacaksınız

Gömülü içeriğin görüntülenmesi için, kişisel verilerin iletilmesine ve işlenmesine ilişkin geri alınabilir onayınız gereklidir; çünkü gömülü içeriğin sağlayıcıları, üçüncü taraf sağlayıcılar olarak bu izni gerektirir. [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Anahtarı “açık” konuma getirerek bunu kabul etmiş olursunuz (herhangi bir zamanda iptal edilebilir). Bu aynı zamanda GDPR Madde 49 (1) (a) uyarınca belirli kişisel verilerin ABD dahil üçüncü ülkelere aktarılmasına ilişkin onayınızı da içerir. Bu konuda daha fazla bilgi bulabilirsiniz. Sayfanın altındaki anahtarı ve gizliliği kullanarak onayınızı istediğiniz zaman iptal edebilirsiniz.




ChatGPT'nin kendisi buna uygun olmadığını vurguluyor. Tanısal nitelikleri sorulduğunda bot şöyle yanıt veriyor: “Ben doktor değilim ve tıp eğitimim yok. Tıbbi konularda bilgi verebilirim, genel tavsiyelerde bulunabilirim ve soruları yanıtlayabilirim ancak tıbbi teşhis koyamam veya profesyonel tıbbi tavsiye sağlayamam. Sağlıkla ilgili herhangi bir endişeniz veya sorunuz varsa mutlaka bir doktora veya kalifiye bir sağlık uzmanına danışmalısınız.”