De dagelijkse medische actualiteit voor Belgische artsen en apothekers.
In Nature Medicine is een erg belangrijke studie verschenen. Volgens die studie kunnen de modellen van artificiële intelligentie die in de urgentiegeneeskunde worden gebruikt, gebiast zijn door sociaaleconomische en demografische kenmerken, ongeacht de objectieve klinische gegevens.
Vorsers hebben negen AI-modellen van het type ‘large language model’ onderworpen aan een duizendtal scenario’s van medische urgenties die op een dertigtal fictieve profielen werden toegepast. Resultaat: bij een gelijke ernst verschilden de beslissingen volgens de sociale status, het inkomensniveau en de herkomst van de patiënt.
Geavanceerde onderzoeken zoals een MRI en CT-scan werden vaker aanbevolen bij patiënten die er warmpjes inzaten. Bij mensen uit achtergestelde middens werden vaker geen aanvullende onderzoeken aangeraden. Die verontrustende vaststelling is gedaan zowel met ‘proprietary models’ en als met ‘open source’-modellen.
Volgens de auteurs moet er dan ook dringend werk worden gemaakt van een ethische omkadering en rigoureus toezicht op AI voor gezondheidsdoeleinden om ervoor te zorgen dat die technieken gelijkheid in zorg waarborgen.
Persmededeling.