PARTAGER | IMPRIMER | E-MAIL
Mon expérience médicale me permet de distinguer l'innovation véritable de la subtile reclassification qui modifie fondamentalement la pratique tout en paraissant inchangée. L'intelligence artificielle a récemment suscité un vif intérêt, notamment avec l'affirmation largement répandue selon laquelle l'IA serait « légalement autorisée à pratiquer la médecine » aux États-Unis. Prise au pied de la lettre, cette affirmation est inexacte. Aucun ordre des médecins n'a délivré d'agrément à une machine. Aucun algorithme n'a prêté serment, accepté d'obligation fiduciaire ni assumé de responsabilité personnelle en cas de préjudice causé à un patient. Aucun robot médecin n'ouvre de clinique, ne facture les assureurs ni ne comparaît devant un jury pour faute professionnelle.
Toutefois, s'arrêter à cette observation revient à négliger un problème plus vaste. Les concepts juridiques de responsabilité sont actuellement en pleine redéfinition, souvent à l'insu du public.
Une transformation majeure est en cours, qui exige bien plus qu'un rejet instinctif ou un enthousiasme technologique aveugle. Il ne s'agit pas ici de conférer à l'intelligence artificielle le statut de médecin, mais plutôt d'une érosion progressive de la frontière fondamentale de la médecine : le lien intrinsèque entre le jugement clinique et la responsabilité humaine. Le jugement clinique implique de prendre des décisions éclairées, adaptées aux besoins et à la situation uniques de chaque patient, et requiert empathie, intuition et une profonde compréhension de l'éthique médicale.
La notion de responsabilité humaine désigne la responsabilité que les professionnels de santé assument quant à leurs décisions et leurs conséquences. Cette érosion ne résulte pas de mesures législatives radicales ni de débats publics, mais s'opère insidieusement par le biais de programmes pilotes, de réinterprétations réglementaires et d'un langage qui, intentionnellement, occulte les responsabilités. Une fois cette frontière franchie, la médecine se transforme de manière irréversible.
La question principale n'est pas de savoir si l'IA peut renouveler des ordonnances ou détecter des résultats d'analyses anormaux. La médecine utilise des outils depuis longtemps, et les professionnels de santé accueillent généralement favorablement toute aide qui allège les tâches administratives ou améliore la reconnaissance des schémas. Le véritable enjeu est de savoir si le jugement médical – la décision concernant les actions, les patients et les risques appropriés – peut être considéré comme un résultat généré par ordinateur, déconnecté de toute responsabilité morale. Historiquement, les tentatives de dissocier le jugement de la responsabilité ont souvent engendré des préjudices sans pour autant impliquer une prise de responsabilité.
Des développements récents éclaircissent les origines de la confusion actuelle. Dans plusieurs États, des programmes pilotes limités autorisent désormais des systèmes d'intelligence artificielle à faciliter le renouvellement des ordonnances pour les maladies chroniques stabilisées, selon des protocoles strictement définis. Au niveau fédéral, des projets de loi examinent si l'intelligence artificielle pourrait être considérée comme un « praticien » à des fins légales spécifiques, à condition d'être correctement encadrée. Ces initiatives sont généralement présentées comme des réponses pragmatiques à la pénurie de médecins, aux délais d'accès aux soins et aux inefficacités administratives. Bien qu'aucune ne désigne explicitement l'IA comme médecin, elles contribuent collectivement à normaliser l'idée, plus inquiétante, que des actes médicaux peuvent être commis sans décideur humain clairement identifiable.
En pratique, cette distinction est fondamentale. La médecine ne se définit pas par l'exécution mécanique de tâches, mais par l'attribution des responsabilités lorsque les résultats sont défavorables. Rédiger une ordonnance est simple ; en assumer les conséquences – notamment en tenant compte des comorbidités, du contexte social, des valeurs du patient ou d'informations incomplètes – est bien plus complexe. Tout au long de ma carrière, cette responsabilité a toujours incombé à un être humain, qui pouvait être interrogé, contredit, corrigé et tenu responsable. Lorsque le Dr Smith commet une erreur, la famille sait qui contacter, ce qui garantit un contact direct avec un responsable. Aucun algorithme, aussi sophistiqué soit-il, ne peut remplir ce rôle.
Le principal risque n'est pas technologique, mais réglementaire et philosophique. Cette transition marque un passage de l'éthique des vertus au procéduralisme. Lorsque les législateurs et les institutions redéfinissent la prise de décision médicale comme une fonction systémique plutôt que comme un ensemble d'actes individuels, le cadre moral de la médecine se trouve modifié. La responsabilité se dilue, le préjudice devient plus difficile à imputer et la responsabilité se déplace des cliniciens vers les processus, du jugement vers le respect des protocoles. Lorsque des erreurs surviennent inévitablement, l'explication dominante devient : « Le système a suivi les directives établies. » La prise en compte de cette transition permet de clarifier le passage d'une prise de décision éthique individualisée à une conformité procédurale mécanisée.
Cette préoccupation n'est pas théorique. Le système de santé actuel est déjà confronté à des problèmes liés à une responsabilité diluée. J'ai constaté que des patients victimes de décisions algorithmiques se retrouvent perdus entre les administrateurs, les fournisseurs et des modèles opaques, sans réponse claire à la question fondamentale : qui a pris cette décision ? L'intelligence artificielle accélère considérablement ce problème. Un algorithme ne peut fournir d'explications morales, faire preuve de retenue par conscience, refuser des actions pour des raisons éthiques, ni reconnaître ses erreurs auprès d'un patient ou de sa famille.
Les partisans d'une autonomie accrue de l'IA invoquent fréquemment l'efficacité comme justification. Les cliniques sont débordées, les médecins souffrent d'épuisement professionnel et les patients attendent souvent des mois pour des soins qui ne devraient prendre que quelques minutes. Ces préoccupations sont légitimes et tout clinicien honnête les reconnaît. Cependant, l'efficacité à elle seule ne justifie pas de modifier les fondements éthiques de la médecine. Les systèmes optimisés pour la rapidité et l'échelle sacrifient souvent la nuance, la discrétion et la dignité individuelle. Historiquement, la médecine a résisté à cette tendance en soulignant que les soins sont fondamentalement une relation et non une simple transaction.
L'intelligence artificielle risque d'inverser ce rapport. Lorsque ce sont des systèmes, et non des individus, qui dispensent les soins, le patient n'est plus lié par un pacte avec un clinicien, mais devient un rouage d'un processus. Le médecin endosse alors le rôle de superviseur de la machine ou, plus inquiétant encore, celui de bouclier juridique, assumant la responsabilité de décisions qu'il n'a pas prises lui-même. Avec le temps, le jugement clinique cède la place au respect des protocoles, et la liberté d'action morale s'amenuise progressivement.
L'IA introduit également un problème plus subtil et plus dangereux : le masquage de l'incertitude. La médecine se nourrit d'ambiguïté. Les données probantes sont probabilistes. Les recommandations sont provisoires. Les patients se présentent rarement comme des ensembles de données parfaitement clairs. Les cliniciens sont formés non seulement à agir, mais aussi à hésiter — à reconnaître les situations où l'information est insuffisante, celles où une intervention risque d'être plus néfaste que bénéfique, ou encore celles où il est préférable d'attendre. Imaginons un scénario où l'IA recommande la sortie de l'hôpital, mais où le conjoint du patient semble inquiet, illustrant la tension entre la prise de décision algorithmique et l'intuition humaine. Ces frictions bien réelles soulignent les enjeux liés à l'ambiguïté.
Les systèmes d'IA ne ressentent pas l'incertitude ; ils produisent des résultats. Lorsqu'ils se trompent, ils le font souvent avec une confiance injustifiée. Cette caractéristique n'est pas un défaut de programmation, mais une propriété inhérente à la modélisation statistique. Contrairement aux cliniciens expérimentés qui expriment ouvertement leurs doutes, les grands modèles de langage et les systèmes d'apprentissage automatique ne reconnaissent pas leurs propres limites. Ils produisent des réponses plausibles même lorsque les données sont insuffisantes. En médecine, la plausibilité sans fondement peut s'avérer dangereuse.
À mesure que ces systèmes s'intègrent plus tôt dans les flux de travail cliniques, leurs résultats influencent de plus en plus les décisions ultérieures. Avec le temps, les cliniciens peuvent commencer à faire confiance aux recommandations non pas pour leur validité, mais parce qu'elles sont devenues la norme. Le jugement passe progressivement d'un raisonnement actif à une acceptation passive. Dans ces circonstances, l'intervention humaine n'est guère plus qu'une garantie symbolique.
Les partisans de l'IA affirment souvent qu'elle ne fera qu'« augmenter » le travail des cliniciens sans les remplacer. Cependant, cette affirmation est fragile. Dès lors que l'IA démontre des gains d'efficacité, les pressions économiques et institutionnelles tendent à favoriser une plus grande autonomie. Si un système peut renouveler des ordonnances en toute sécurité, il pourrait bientôt être autorisé à les prescrire. S'il peut diagnostiquer avec précision des affections courantes, la nécessité d'un avis médical sera remise en question. S'il surpasse les humains dans des tests de performance rigoureux, la tolérance à la variabilité humaine diminuera.
Compte tenu de ces tendances, la mise en œuvre de garanties spécifiques est essentielle. Par exemple, des audits obligatoires de non-conformité portant sur 5 % des décisions prises par l'IA pourraient constituer un contrôle concret, assurant la cohérence entre les recommandations de l'IA et le jugement clinique humain, tout en fournissant aux organismes de réglementation et aux conseils d'administration des hôpitaux des indicateurs exploitables pour suivre l'intégration de l'IA.
Ces questions ne sont pas posées avec de mauvaises intentions ; elles émergent naturellement au sein de systèmes axés sur la maîtrise des coûts et l’évolutivité. Elles annoncent cependant un avenir où le jugement humain deviendra l’exception plutôt que la règle. Dans un tel scénario, les personnes disposant de ressources continueront de recevoir des soins humains, tandis que les autres seront orientées par des processus automatisés. Cette médecine à deux vitesses ne résultera pas d’une idéologie, mais d’une optimisation.
Ce qui rend la situation particulièrement précaire, c'est l'absence de responsabilités clairement définies. Lorsqu'une décision prise par une IA nuit à un patient, qui est responsable ? Le clinicien qui supervise le système ? L'établissement qui l'a déployé ? Le fournisseur qui a entraîné le modèle ? L'autorité de réglementation qui a autorisé son utilisation ? Sans réponses claires, la responsabilité disparaît. Et lorsque la responsabilité disparaît, la confiance s'effondre rapidement.
La médecine repose fondamentalement sur la confiance. Les patients confient leur corps, leurs craintes et souvent leur vie aux soignants. Cette confiance ne peut être transférée à un algorithme, aussi sophistiqué soit-il. Elle se fonde sur la certitude qu'un être humain est présent – quelqu'un capable d'écouter, de s'adapter et d'assumer la responsabilité de ses actes.
Il est inutile de rejeter en bloc l'intelligence artificielle. Utilisée à bon escient, elle peut alléger les tâches administratives, identifier des tendances qui échapperaient à l'œil humain et faciliter la prise de décision clinique. Elle peut permettre aux médecins de consacrer davantage de temps aux soins des patients plutôt qu'aux tâches administratives. Toutefois, la réalisation de cet avenir exige un engagement ferme à maintenir la responsabilité humaine au cœur de la pratique médicale.
L’expression « intervention humaine dans la boucle » doit aller au-delà d’une simple supervision symbolique. Elle doit impliquer qu’une personne soit responsable de chaque décision médicale, en comprenne le raisonnement et conserve l’autorité et l’obligation de passer outre les recommandations algorithmiques. Elle doit également garantir la transparence, l’explicabilité et le consentement éclairé du patient, ainsi qu’un engagement à investir dans les cliniciens plutôt que de les remplacer par l’IA.
Le principal risque ne réside pas dans la puissance excessive de l'intelligence artificielle, mais plutôt dans la propension des institutions à se décharger de leurs responsabilités. Dans une quête d'efficacité et d'innovation, la médecine risque de devenir un domaine techniquement avancé et administrativement rationalisé, mais dépourvu de toute dimension morale.
En envisageant l'avenir, il est essentiel de se demander : quel type de soignant souhaitons-nous voir au chevet du patient en 2035 ? Cette question appelle à une réflexion morale collective, nous incitant à façonner un avenir où la responsabilité humaine et la compassion demeurent au cœur de la pratique médicale. La mobilisation collective sera cruciale pour garantir que les progrès de l'intelligence artificielle renforcent, et non compromettent, ces valeurs fondamentales.
L'intelligence artificielle n'est pas autorisée à pratiquer la médecine. Pourtant, la médecine se réorganise discrètement autour de systèmes dénués de toute responsabilité morale. Si ce processus se poursuit sans contrôle, nous pourrions un jour découvrir que le médecin n'a pas été remplacé par une machine, mais par un protocole – et qu'en cas de préjudice, personne ne sera tenu responsable.
Ce ne serait pas un progrès. Ce serait une abdication.
-
Dr Joseph Varon, est médecin de soins intensifs, professeur et président de l'Independent Medical Alliance. Il est l'auteur de plus de 980 publications évaluées par des pairs et est rédacteur en chef du Journal of Independent Medicine.
Voir tous les messages