- Les modèles d’IA comme CheXNet, publiés en 2017, ont affiché une précision supérieure à celle des radiologues humains pour le diagnostic de la pneumonie, mais ces performances ne sont pas reproduites dans la pratique clinique réelle
- Bien que des centaines de modèles d’IA en radiologie aient récemment obtenu l’approbation de la FDA, les postes et les salaires des radiologues aux États-Unis atteignent au contraire des niveaux historiques
- Parmi les limites de l’IA médicale figurent le manque de données, l’écart avec les conditions réelles, les barrières réglementaires et assurantielles, ainsi que le fait que les radiologues humains assurent de nombreux rôles au-delà du diagnostic
- Plutôt qu’une automatisation complète, un système où humains et IA travaillent de concert est devenu la norme du secteur médical, et même avec les progrès de l’IA, le besoin de radiologues ne diminue pas
- La première décennie de diffusion de l’IA médicale montre un paradoxe : si la technologie promet de forts gains de productivité, elle entraîne en pratique une demande accrue de travail humain
Introduction : arrivée de l’IA et attentes
- Les modèles d’IA apparus en 2017, comme CheXNet, ont été entraînés sur plus de 100 000 radiographies thoraciques et ont présenté des résultats supérieurs à ceux des spécialistes humains pour la détection de la pneumonie
- Plusieurs entreprises, dont Annalise.ai, Lunit, Aidoc et Qure.ai, ont lancé des systèmes d’IA capables de détecter des centaines de maladies, avec intégration possible dans les systèmes de dossiers hospitaliers
- Il existe plus de 700 modèles d’IA en radiologie approuvés par la FDA, soit 75 % de l’ensemble des dispositifs d’IA médicale
- La radiologie a longtemps été considérée comme le domaine le plus propice au remplacement par l’IA grâce à ses entrées numériques, à la reconnaissance de motifs et à la possibilité de mesurer clairement les performances
- Pourtant, dans les faits, la demande de formation de radiologues atteint un niveau record, et les salaires ont eux aussi augmenté, de 48 % par rapport à 2015, signe d’une demande croissante de main-d’œuvre humaine
Limites des systèmes d’IA de diagnostic radiologique
Écart entre environnement réel et données d’entraînement
- Les modèles d’IA en radiologie affichent d’excellentes performances sur des données standardisées et dans des conditions spécifiques, mais leur efficacité diminue dans les hôpitaux réels en raison de différences de données selon les établissements, des caractéristiques des équipements de diagnostic et du manque de diversité
- La plupart des modèles n’atteignent une haute précision que pour une pathologie donnée et un seul type d’image, ce qui impose en pratique d’alterner entre plusieurs modèles selon les cas
- Même les algorithmes approuvés par la FDA ne couvrent qu’une partie du travail réel de lecture d’images et se concentrent surtout sur quelques pathologies majeures comme l’AVC, le cancer du sein ou le cancer du poumon
- Le manque de données concernant les enfants, les femmes et certaines minorités ethniques, ainsi que les cas où la maladie apparaît de manière subtile ou se mêle à d’autres pathologies, réduit aussi la qualité des prédictions
Écart entre benchmarks et application clinique
- Dans les tests de benchmark, l’IA obtient de bons indicateurs quantitatifs, mais en situation clinique réelle, les résultats des radiologues humains assistés par ces systèmes restent en deçà des attentes
- Par exemple, en mammographie, les systèmes d’IA d’aide à la lecture ont amélioré la sensibilité de détection, mais ont surtout augmenté le nombre d’examens complémentaires inutiles et de biopsies sans améliorer le taux de détection des cancers
- La double lecture, où une ou deux personnes lisent ensemble les examens, montre de meilleurs résultats pour la détection des cancers que l’assistance par IA, tout en réduisant davantage le taux de rappels inutiles
Les contraintes juridiques et institutionnelles freinent l’automatisation
- La FDA distingue les logiciels de radiologie entre outils d’assistance/de tri et outils entièrement automatisés
- L’automatisation complète reste rare et ne s’applique que dans certains cas très spécifiques, comme avec IDx-DR
- Lorsque l’IA rencontre des images difficiles à interpréter, le logiciel doit s’interrompre de lui-même et transmettre le dossier à un professionnel de santé
- Les exigences réglementaires sont élevées, et toute nouvelle phase de réentraînement ou de modification du modèle nécessite également une nouvelle approbation
- Les assureurs considèrent que les outils automatisés peuvent provoquer des dommages collectifs plus importants en cas d’erreur et hésitent donc à indemniser des diagnostics reposant uniquement sur l’intelligence artificielle
- En droit, la norme reste souvent que seuls les comptes rendus interprétés et signés directement par un médecin sont remboursables
Évolution du rôle des radiologues humains
- En pratique, les radiologues ne consacrent que 36 % de leur temps à l’interprétation des images ; le reste est dédié à des tâches variées comme la consultation avec les patients et les collègues, la supervision des examens, la formation ou la modification des prescriptions
- Même lorsque le temps de lecture des images diminue, cela n’a pas entraîné de licenciements inutiles ; au contraire, de nouvelles tâches apparaissent et le volume global d’images interprétées augmente
- Par exemple, lors du passage de l’imagerie sur film au numérique, la productivité de lecture a fortement progressé, mais il n’y a pas eu de réduction des effectifs médicaux ; au contraire, le nombre total d’examens d’imagerie a augmenté de plus de 60 %
- L’amélioration de la vitesse de traitement des images permet aussi de réduire les temps d’attente, d’améliorer la réponse aux urgences et d’élargir les usages au sein du système de santé
Perspectives : les leçons de la première décennie de diffusion de l’IA
- Au cours des dix dernières années, l’adoption dans les soins courants a progressé bien plus lentement que le niveau technique atteint par les modèles d’IA
- Des facteurs non techniques comme la réglementation, l’assurance, la relation avec les patients ou la responsabilité médicale font obstacle au remplacement complet
- Le modèle dominant devient celui d’une collaboration entre humains et IA visant à renforcer la productivité plutôt qu’à remplacer les équipes
- Sur les grandes plateformes (par exemple Facebook), le potentiel d’automatisation par l’IA peut être élevé, mais plus les emplois intellectuels sont composés de tâches variées, plus l’introduction du logiciel tend à augmenter la quantité de travail humain au lieu de la réduire
- L’expérience du secteur radiologique montre que l’IA, loin de remplacer immédiatement le travail humain, produit au contraire un résultat paradoxal : la demande de personnel humain se maintient, voire augmente, à mesure que s’ajoutent des transformations sociales, institutionnelles et comportementales
1 commentaires
Commentaires Hacker News
Je suis radiologue interventionnel et titulaire d’un master en informatique, et j’ai l’impression que, hors de la radiologie, on comprend mal pourquoi l’IA n’a pas encore remplacé la radiologie. Pour expliquer : à la question de savoir si l’IA peut faire mieux que les radiologues humains pour l’interprétation des images, la réponse est presque « oui », ou bientôt. Mais à la question de savoir si les radiologues seront remplacés, la réponse est presque « non ». La raison, c’est le risque médico-légal. Tant que la loi ne change pas, un radiologue doit apposer la signature finale sur chaque compte rendu. Donc même si l’IA lit principalement l’image et rédige un compte rendu parfait, la validation finale du radiologue devient le goulot d’étranglement. Aujourd’hui, les radiologues lisent déjà rapidement au moins 60 à 100 examens variés par jour, ce qui est proche de la limite humaine. Même si l’IA rédige tous les comptes rendus à leur place, il faut quand même tout relire et signer ; le gain de temps est presque nul. Bien sûr, il y aura peut-être un médecin irresponsable qui cliquera simplement sur « signer », mais il y aura aussi un avocat prêt à le poursuivre.
En 2016, quand Tesla a publié une vidéo de démonstration de conduite entièrement autonome en disant que « le conducteur n’est là que pour des raisons légales et ne fait rien, la voiture conduit toute seule », j’ai pensé que le secteur du transport routier allait changer pour toujours et j’ai reconsidéré mon entrée dans cette industrie. Pourtant, 2025 est presque là, et la plupart des changements ont été lents ou quasi inexistants. L’optimisme selon lequel la technologie va bouleverser le monde est omniprésent, mais en réalité les changements sont souvent très lents, voire bloqués.
La meilleure anecdote sur le machine learning appliqué à la radiologie, c’est l’époque où tout le monde essayait d’utiliser l’IA pour détecter le COVID sur des radios pulmonaires. Une équipe de recherche a obtenu des résultats apparemment corrects, mais on a découvert plus tard que l’IA avait en fait appris à reconnaître les différences de police des filigranes d’image entre les hôpitaux du dataset ; elle ne distinguait pas une infection au COVID, elle distinguait des « polices ». Voir l’article : Article de Nature Machine Intelligence Mot-clé de recherche : “AI for radiographic COVID-19 detection selects shortcuts over signal” On peut aussi trouver l’article en open access.
Le cœur de l’article, c’est ceci : 1) si on veut confier davantage de tâches aux modèles, on se heurte à la réglementation ; 2) les régulateurs et les assureurs n’approuvent ni ne remboursent les modèles autonomes ; 3) dans le travail des radiologues, le diagnostic n’occupe qu’une petite part, le reste consistant surtout à communiquer avec les patients et les autres soignants. Même si un modèle de machine learning faisait le diagnostic parfaitement et gratuitement, la structure actuelle ne permettrait pas de « remplacer » immédiatement les radiologues.
Rien qu’aujourd’hui, j’ai adressé une patiente en radiologie pour une biopsie au trocart, un patient pour une infiltration lombaire, un autre pour une infiltration de l’épaule, et il y a un mois j’ai adressé une autre patiente pour une embolisation de l’endométriose. Je vais bientôt aussi adresser un cas d’embolisation d’une fuite urinaire après néphrectomie. Est-ce qu’un LLM peut faire ces gestes ? Quand l’IA banalise une compétence, le groupe d’experts se déplace vers une autre, et laisse partir ce qui est devenu commoditisé. Par exemple, depuis que l’interprétation ECG est automatisée dans les appareils, sa rémunération a fortement chuté, si bien que j’ai volontairement laissé tomber cette compétence pour me concentrer sur le cerveau et les troubles du mouvement. Donc quand un patient a besoin d’une interprétation d’ECG, je l’adresse simplement en cardiologie, ce qui entraîne des examens supplémentaires, du temps et des coûts en plus pour le patient et le système de santé, mais c’est ainsi. À l’avenir, on pourrait voir apparaître des « déserts médicaux » de l’IA : des domaines où les experts ne voudront plus travailler, notamment la gériatrie, les zones rurales ou la psychiatrie.
En 2016, le professeur Geoffrey Hinton a dit qu’il fallait « arrêter de former des radiologues ». Si on avait cru toutes les affirmations des défenseurs de l’IA, le monde se serait déjà effondré.
Je suis médecin et ingénieur full-stack, donc je n’ai pas envie de faire de la radiologie ni une formation complémentaire. L’IA va d’abord renforcer la radiologie, puis commencer à remplacer une partie des métiers. Les radiologues actuels se déplaceront naturellement vers de nouveaux domaines, comme la radiologie interventionnelle.
En mai de cette année, le New York Times a aussi publié un article similaire intitulé « l’IA ne remplace pas la radiologie » : Voir l’article du NYT Les propos du médecin et de Hinton sont intéressants. « L’IA aidera, quantifiera, mais n’ira pas jusqu’à tirer la conclusion interprétative de la technologie. » « Dans 5 ans, ne pas utiliser l’IA pourrait au contraire relever de la faute médicale. » « Mais au final, humains et IA avanceront ensemble. » Hinton a plus tard reconnu par e-mail qu’il avait trop généralisé : il ne parlait que de l’interprétation d’images, la direction était correcte, mais le calendrier était faux.
Il faudrait rendre obligatoire la transformation IA en radiologie. Les radiologues devraient utiliser l’IA au-delà d’un certain pourcentage chaque jour, doubler leur productivité, et être licenciés sinon. Comme le disent les CEO, l’IA est la technologie la plus transformatrice que nous ayons jamais vue, donc il faut absolument l’adopter malgré l’anxiété. Rien d’autre n’est acceptable.
Je n’aurais pas confiance dans le fait de confier à des médecins non radiologues l’interprétation des résultats de lecture produits par l’IA. Même si l’IA est excellente sur les benchmarks, sans les connaissances de fond nécessaires à l’analyse directe, c’est comme lire un article de 20 pages sans pouvoir juger s’il est fiable.