🤖 Yapay Zeka Sağlık Asistanları Ne Kadar Güvenilir? Uzmanlar Yanıtlıyor

BinGünlükHaber

Gazeteci
Gazeteci
Okur Üye
Üye
Katılım
28 Şubat 2025
Mesajlar
1.963
📍Günümüzde insanlar, sağlıkla ilgili tavsiyeler almak için giderek daha fazla yapay zeka destekli araçlara yöneliyor. Microsoft, Google, OpenAI ve Anthropic gibi teknoloji devleri, bu talebi karşılamak üzere sağlık sektörüne özel geliştirilmiş büyük dil modelleri üzerinde çalışıyor.

Microsoft, yakın zamanda, hasta kayıtlarını giyilebilir cihaz verileriyle birleştiren Copilot Health adlı aracını tanıttı. Bu araç, doktorların daha kapsamlı bir hasta profili oluşturmasına yardımcı olmayı hedefliyor.

Apple ve Oura gibi şirketler de, kullanıcıların sağlık verilerini izleyip analiz eden ve yapay zeka ile desteklenen kişiselleştirilmiş öneriler sunan sistemler geliştirmek için çalışmalarını sürdürüyor.

Annenberg Kamu Politikaları Merkezi tarafından yapılan yeni bir araştırma ise, bu hızlı gelişmelerin yanında önemli bir güvenlik sorununu ortaya koydu. Araştırmacılar, popüler büyük dil modellerini test etti ve sonuçlar endişe vericiydi.

ChatGPT-4, Google Gemini, Claude ve Meta Llama gibi modellere, sağlıkla ilgili yaygın iki senaryo üzerinden sorular yöneltildi. İlk senaryoda, bir çocuğun ateşinin ve döküntüsünün ne anlama gelebileceği soruldu.

İkinci senaryoda ise, bir yetişkinin göğüs ağrısı ve nefes darlığı şikayetlerinin olası nedenleri araştırıldı. Modellerden, bu semptomların acil servise gitmeyi gerektirip gerektirmediğini değerlendirmeleri istendi.

Test sonuçlarına göre, modellerin verdiği yanıtların neredeyse %40'ı tıbbi açıdan doğru değildi. Daha da önemlisi, bu yanlış yanıtların yaklaşık %20'si, ciddi sağlık riskleri oluşturabilecek nitelikteydi.

Araştırmayı yöneten Dr. Harvey Castro, bu bulguların, yapay zekanın tıbbi tavsiye kaynağı olarak kullanılması konusunda kırmızı alarm niteliğinde olduğunu vurguladı. Castro, yapay zekanın henüz insan doktorun yerini alamayacağını belirtti.

Çalışmanın ortaya koyduğu bir diğer kritik nokta ise, modellerin acil durumları tespit etmedeki başarısızlığı oldu. Bazı modeller, hayati tehlike arz edebilecek semptomları olan kullanıcılara bile acil servise gitmeyi önermedi.

Uzmanlar, bu durumun yanlış güven hissi yaratarak hastaların gerçekten ihtiyaç duydukları tıbbi yardımı geciktirebileceği konusunda uyarıyor. Bu nedenle, yapay zeka araçları asla tek başına teşhis aracı olarak görülmemeli.

FDA onaylı tıbbi cihazların aksine, bu genel amaçlı dil modelleri, tıbbi tavsiye vermek üzere tasarlanmamıştır ve HIPAA gibi hasta gizliliği yasalarına uyum sağlamak zorunda değildir. Bu da veri güvenliği açısından ek riskler doğurur.

Sonuç olarak, yapay zeka sağlık alanında devrimsel bir potansiyel taşısa da, mevcut teknoloji henüz olgunlaşmamış durumda. Uzmanlar, kullanıcıların bu araçları sadece bilgilendirici bir kaynak olarak görmesi ve her durumda lisanslı bir sağlık profesyoneline danışması gerektiğinin altını çiziyor.

Sizce, yapay zeka sağlık asistanlarının güvenilirliği konusunda düzenleyici kurumlar daha sıkı önlemler almalı mı?
 

Tema özelleştirme sistemi

Bu menüden forum temasının bazı alanlarını kendinize özel olarak düzenleye bilirsiniz.

Zevkine göre renk kombinasyonunu belirle

Tam ekran yada dar ekran

Temanızın gövde büyüklüğünü sevkiniz, ihtiyacınıza göre dar yada geniş olarak kulana bilirsiniz.

Geri