Le 6 avril, le podcast Intention to treat publié dans le New England Journal of Medicine recevait plusieurs experts pour évoquer les questions qui gravitent autour de l'intelligence artificielle dans le domaine de la santé. Comment ces modèles aident-ils les patients et les praticiens, et à quels risques exposent leurs utilisations massives ? 


au sommaire


    L'intelligence artificielle (IA) fascine autant qu'elle effraie, surtout lorsque ses applicationsapplications concernent notre santé. Si on met de côté le bol d'airair que les algorithmes permettent pour la gestion administrative des données de santé (avec des questions de sécurité et de transparencetransparence qui restent prégnantes), leur objectif principal en contexte clinique est de faire du tri : quel patient bénéficiera le plus de cet examen coûteux ? À quel point est-il nécessaire de poursuivre les investigations chez un patient ? Toutes les informations évoquées lors de la consultation médicale sont-elles liées statistiquement avec une pathologie précise ? Si ce tri permet au médecin - qui n'est pas différent des autres êtres humains d'un point de vue cognitif - d'être assisté concernant la collecte d'informations et la conservation de ces dernières en mémoire, il peut avoir des conséquences dramatiques selon le jeu de données avec lequel l'IA a été entraînée. Autrement dit, l'intelligence artificielleintelligence artificielle peut discriminer pour le meilleur mais aussi pour le pire, comme le suggère un récent podcast publié le 6 avril dans le New England Journal of Medicine

    Le bon tri : l'exemple de la nécessité de l'examen médical

    Nous vivons dans un monde avec des ressources limitées et les places pour réaliser des examens médicaux ne font pas exception, surtout lorsqu'il s'agit d'investigations poussées nécessitant du matériel de pointe. Vous vous souvenez probablement de la dernière fois que vous avez pris rendez-vous pour un scanner ou un IRM et du délai considérable qu'il a fallu pour obtenir un rendez-vous. C'est un exemple typique du contexte clinique dans lequel l'IA excelle. À partir des informations récoltées lors de la consultation, elle parvient à générer un score très précis qui indique au médecin la probabilité qu'une personne souffre, par exemple, d'un problème cardiaque. Cela permet d'éviter au patient de faire l'examen car il ne révélera probablement rien et à ceux qui en ont vraiment besoin de le faire plus rapidement.

     

    L'IA permet d'aider les médecins dans leur prise de décision concernant la nécessité d'orienter vers des examens plus poussés ou vers des spécialistes. © chinnapong, Adobe Stock
    L'IA permet d'aider les médecins dans leur prise de décision concernant la nécessité d'orienter vers des examens plus poussés ou vers des spécialistes. © chinnapong, Adobe Stock

    Le mauvais tri : l'exemple du sous-diagnostic à cause du manque de diversité ethnique des données d'entraînement

    Néanmoins, certains patients sont moins éligibles que d'autres à être « triés » par une IA et cela dépend surtout des données historiques. Les sciences biomédicales sont dans une phase où elles se rendent progressivement compte que leurs bases de donnéesbases de données biologiques et leurs essais cliniques comportent surtout des informations concernant des populations très précises : caucasiens d'Amérique du Nord ou encore mineurs gallois pour le score permettant de dépister l'arthrose. Dès lors, lorsque l'algorithme manque de données au sujet d'un patient afro ou latino-américain, il y a un risque sérieux de sous-diagnostic à cause du manque d'inclusion au sein des données. 

    Voir aussi

    Microbiote et maladie : l'épineuse question de la causalité

    L'IA n'est pas un expert de la médecine

    Comme nous l'avons vu, l'IA est un outil formidable pour libérer du temps au médecin afin qu'il puisse éviter le burn-out et possèder plus de temps et d'énergieénergie pour se concentrer sur son patient. Malheureusement, le problème de la discrimination n'est pas le seul écueil des IA.

    Les modèles de langage, comme chatGPT, ont leur équivalent dans le domaine de la santé. On peut leur poser des questions très précises auxquelles ils apporteront des réponses. Mais n'oublions pas que ces modèles ne sont aucunement experts en santé...

    De quoi ChatGPT est-il vraiment capable ? © T. Giraud, YouTube

    Il arrive souvent aux IA de délivrer des informations complètement rocambolesques et, dans le pire des cas, d'entretenir la désinformation sur des sujets sensibles comme la vaccination.