Ny forskning: AI tolkar felaktigt knäröntgen som indikationer på öldrickande och skapar osäkerhet i medicinsk användning.

StockholmAI används inom sjukvården för att analysera medicinska bilder och upptäcka detaljer som människor kan förbise. En studie i Scientific Reports avslöjade dock ett stort problem: AI kan feltolka medicinska bilder, vilket leder till märkliga och opålitliga prognoser. När forskare studerade över 25 000 knä-röntgenbilder upptäckte de att AI ibland identifierade orelaterade drag, såsom om patienter drack öl, genom att märka subtila mönster utan medicinsk relevans.
AI-algoritmer tenderar ibland att fokusera på fel detaljer istället för viktig medicinsk information. Modellerna kan ta hänsyn till ovidkommande aspekter i datan, såsom skillnader i röntgenmaskiner eller etiketter från olika sjukhus. Även om vi försöker eliminera dessa fördomar, hittar AI fortfarande andra omärkta mönster att basera sina beslut på. Detta problem hotar kvaliteten på vetenskaplig forskning och användningen av AI inom medicinen.
Några viktiga problem har identifierats:
AI-modeller utnyttjar oväntade mönster i data, genvägslärande leder till felaktiga slutsatser, beroende på störande variabler snarare än medicinska insikter, och svårigheter att eliminera bias.
AI kan innebära risker inom medicinsk forskning eftersom den kan göra misstag. Därför är det viktigt att ha strikta kontroller för att säkerställa att AI-systemen lär sig rätt medicinsk information. AI tolkar inte information som människor gör; den använder sig av mönster och inte av mänsklig logik eller kontext. Så även om AI kan vara användbar måste vi förstå dess begränsningar och de fel som kan uppstå.
Hälso- och sjukvårdspersonal samt forskare måste vara försiktiga. Att använda AI för att upptäcka nya mönster kräver starka bevis. Det finns en risk att överskatta AI:s förmåga. Människor kan felaktigt tro att AI uppfattar världen som en människa gör. Det är viktigt att testa och noggrant utvärdera dessa verktyg för att använda dem på ett säkert och korrekt sätt inom medicinska miljöer.
AI inom medicinsk avbildning utvecklas ständigt, vilket gör det viktigt att förstå dess möjligheter, risker och hur man studerar det på rätt sätt. När AI blir mer integrerat i vården är det avgörande att forskningen håller sig ärlig och tillförlitlig.
Studien publiceras här:
http://dx.doi.org/10.1038/s41746-021-00438-zoch dess officiella citering - inklusive författare och tidskrift - är
Ravi Aggarwal, Viknesh Sounderajah, Guy Martin, Daniel S. W. Ting, Alan Karthikesalingam, Dominic King, Hutan Ashrafian, Ara Darzi. Diagnostic accuracy of deep learning in medical imaging: a systematic review and meta-analysis. npj Digital Medicine, 2021; 4 (1) DOI: 10.1038/s41746-021-00438-z

8 februari 2025 · 23:24
Techjättarna tar kampen: AI-kriget har just börjat

29 december 2024 · 02:20
AI och grupptänk: hur maskininlärning förstärker fördomar och påverkar samhället

28 december 2024 · 04:35
Forskare utforskar AI-baserade åldersklockor för att förbättra hälsa och förlänga livslängden
Dela den här artikeln
