Aujourd’hui, l’intelligence artificielle est implantée dans le monde de la santé et fait évoluer considérablement la prise en charge du patient. Dans l’imagerie médicale, les constructeurs de machines ne peuvent pas s’en passer et l’intègrent dans leurs produits. Grâce au Deep Learning, les examens d’imagerie sont plus rapides et les images sont de meilleures qualités. Les patients passent moins de temps sous la machine, leur examen est facilité et plus agréable. Pour les manipulateurs radio et les radiologues, les images sont lissées, améliorées, avec une meilleure résolution spatiale. Par conséquent, le diagnostic est plus simple à poser, le flux de patient est mieux géré. Le workflow est optimisé.
Des logiciels d’aide au diagnostic
Des start-up d’IA dans la santé développent des outils d’IA pour l’aide au diagnostic, et au pronostic. À titre d’exemple, Therapixel aide au diagnostic du cancer de sein sur les mammographies. AZmed, un autre exemple, aide au diagnostic de fracture osseuses sur des radiographies. Ces outils aident considérablement les professionnels de santé aussi bien manipulateurs que radiologues et urgentistes. Ils sont considérés comme des dispositifs médicaux ayant une finalité médicale, et bénéficient donc d’un marquage CE. Toutefois, il peut y avoir des erreurs. L’IA n’est pas fiable à 100% et présente des limites (biais dans l’entraînement, cyberattaque, erreur dans le résultat etc…), c’est pourquoi le médecin garde la décision finale du diagnostic. Ces outils ne sont pas là pour remplacer le professionnel de santé mais pour l’aider, l’assister, l’optimiser.
Mais comment sont réglementés ces outils ? Les médecins sont-ils protégés de leur défaut et dysfonctionnement ? L’IA a-t-elle une personnalité juridique ? A-t-elle une responsabilité médicale ? Faut-il encadrer l’usage de l’IA dans le médical ? Le monde scientifique est-il favorable à une réglementation de l’IA ? Faut-il interdire ces outils novateurs ? Les patients doivent-ils s’en inquiéter ? Devons-nous faire confiance à cette technologie sans limites ? Les médecins sont-ils favorables à son utilisation ?
Tant de questions pour aboutir à cette réflexion : l’utilisation de l’IA doit-elle être réglementée pour une meilleure prise en charge du patient ?
La reconnaissance de l’IA
La Société française de radiologie reconnait l’apport et l’intérêt des algorithmes d’IA dans l’imagerie médicale pour optimiser le parcours de soin du patient. Sur le plan régional, l’agence régionale de santé (ARS) d’Île-de-France participe au déploiement des outils numériques d’aide au diagnostic. En mars 2024, elle a lancé un appel à projets [1] pour accompagner et encourager les établissements dans l’acquisition et la mise en place de ces outils.
L’implication des pouvoirs publics dans l’IA
Le gouvernement a mis à jour ses publications le 1er mars 2023 [2] : « L’État a un devoir de garantir au citoyen une médecine de pointe tout en s’assurant de l’éthique de l’usage des données et de la fiabilité des innovations dont il bénéficiera. La France dispose, dans le domaine de l’IA de la santé, d’un écosystème extrêmement dynamique composé à la fois d’équipes de recherche académique d’excellence et d’un réseau médical de renommée mondiale, de grandes entreprises pharmaceutiques et technologiques très actives et de startups innovantes, notamment sur les technologies de rupture. » Actuellement, le gouvernement poursuit ses objectifs et a pour ambition d’améliorer la santé des patients et leur expérience du système de santé sur le long terme. L’accès et le partage des données de santé sont indispensables au développement de solutions numériques efficaces.
Projet IA Act, une réglementation jugée nécessaire
Le projet IA Act (ou loi sur l’intelligence artificielle de l’UE) par le Parlement européen a été introduit en 2021 et a été mis à jour le 14 juin 2023 pour réguler et encadrer l’utilisation et la production de l’IA générative. Les dispositifs médicaux basés sur des systèmes IA devront être soumis à des exigences de sécurité et de transparence strictes. Le projet précise que ces dispositifs doivent être utilisés à des fins spécifiques et légitimes [3]. Celui-ci classe les IA en trois modèles en fonction de leur niveau de puissance de calcul et de risque, et les soumet à des obligations de transparence sur leur fonctionnement, et leur performance. Le Commissaire européen Thierry Breton annonce : « L’UE devient le premier continent à fixer des règles claires pour l’utilisation de l’IA ». Tous ne partagent pas cet engouement et pensent que cette réglementation n’est pas adaptée à l’ampleur de cette technologie. Un rapport [4] rédigé par la commission de l’intelligence artificielle a été remis au président de la République, le 13 mars 2024, contenant 25 recommandations pour faire de la France un acteur majeur de la révolution technologique de l’intelligence artificielle. [5]
Dans sa dernière validation, le 17 mai 2024, le cadre juridique pour l’IA a défini quatre niveaux de risques : minimaux, limités, élevés, inacceptables. Cette dernière mise à jour contient des interdictions d’usage de l’IA ayant des déviances comme le détournement du consentement et le libre arbitre du patient, ou encore classer les patients en fonction de leur comportement social ou des caractéristiques personnelles injustifiées. Elle contient par ailleurs des règles sur la mise sur le marché, la mise en service et son utilisation dans l’UE, des obligations pour le fournisseur. Tout cela dans le but de garantir une qualité de soin et une sécurité. Les développeurs doivent garantir une qualité des données dans la phase d’entrainement, une efficacité, une pertinence, et une fiabilité du produit. Une notice technique et détaillée devra être fournie pour chaque outil. Une surveillance continue de leur fonctionnement et une traçabilité est primordiale et rentre dans le cadre de la transparence du produit. L’obtention d’un marquage CE et de la norme ISO/IEC 42001 sont essentielles pour attester de la conformité européenne du produit au projet IA Act.
Le RGPD, une règlementation pour la protection des données des patients
Selon le règlement général sur la protection des données (RGPD), les données à caractère personnel concernant la santé sont « l’ensemble des données se rapportant à l’état de santé d’une personne concernée qui révèlent des informations sur l’état de santé physique ou mentale passé, présent ou futur de la personne concernée ».
Le RGPD s’ajoute à la réglementation d’IA Act pour la protection et le respect des données privées des patients utilisées dans le développement d’un outil d’IA. En effet, le système doit s’entrainer sur des centaines de milliers de données, voir des millions, pour être fiable. Mais cela pose un problème éthique et moral. Il est essentiel de surveiller le respect des règles de la RGPD dès la conception du produit.
La personnalité juridique de l’IA
« Il serait envisageable de conférer la personnalité électronique à tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante auprès des tiers » est une résolution du Parlement européen 2015/2103 (INL) concernant les règles du droit civil sur la robotique [6].
Faut-il attribuer une personnalité juridique à l’IA ? L’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) en est défavorable car le risque est de déresponsabiliser les médecins, fabricants et concepteurs. De plus, le médecin a une obligation de moyen, mais l’IA fera-t-elle partie des moyens obligatoires à consulter par le médecin ? La non consultation de l’IA par le praticien pourra-t-elle lui être reprochée ?
Si l’IA et le médecin ont des avis divergents, ce dernier doit-il informer le patient de cette divergence d’avis ? Le patient a-t-il le droit de décider de faire confiance uniquement à l’IA et d’aller à l’encontre de l’avis du médecin ? Le recours à l’IA doit-il être systématique et obligatoire ? Faut-il en informer chaque fois les patients de son utilisation ? Les patients tolèrent-ils plus une erreur de l’IA ou d’un humain ?
Les avocats se retrouvent confrontés à ces enjeux aujourd’hui. Les textes réglementaires actuels n’offrent pas un cadre juridique suffisant face aux évolutions de la robotique mais il est recommandé d’en informer le patient à l’oral et à l’écrit sur le compte-rendu.
La CNIL, dans la réglementation de l’IA pour les patients
La Commission nationale de l’informatique et des libertés (CNIL) recommande fortement d’informer préalablement le patient de l’utilisation de l’IA dans le processus du diagnostic pour respecter le droit d’information du patient et de son consentement. « Toute personne a ainsi le droit de s’opposer à certains traitements automatisés lorsque ceux-ci n’intègrent pas une intervention humaine dans le processus de décision », indique la CNIL dans un communiqué publié en mars 2022 [7]. L’IA comporte une marge d’erreur qui n’engage pas la responsabilité du praticien ou du fournisseur, cependant la prise de décision médicale n’est pas censée se fonder exclusivement sur l’IA. Le praticien dispose d’une liberté de choix de prescription, reste responsable de sa décision, et ne peut pas s’en défaire en reportant la faute sur l’IA. De plus, pour élaborer son diagnostic, le médecin « doit s’aider dans toute la mesure du possible des méthodes scientifiques les mieux adaptées », selon l’article R.4127-33 du Code de la santé publique. Dès lors que l’utilisation d’un système d’IA est suffisamment courante, reconnue, et recommandée par le milieu médical, le fait de ne pas y avoir recours, alors qu’un dommage aurait pu être évité, pourrait engager la responsabilité du praticien. Aussi, si une IA générative présente un défaut à la conformité suite à une modification qu’elle a elle-même effectuée, le fournisseur reste responsable, indique l’article 1245-10 du Code civil. [8]
Conclusion
Un cadre est nécessaire pour assurer la protection des données des patients et de l’usage de l’IA dans leur parcours de soin. Les fabricants se doivent de développer un système d’IA éthique, transparent, réglementé, et surveillé. Aussi, tous les utilisateurs doivent se former à son utilisation et en connaître ses limites. Il est aussi important d’informer les patients des implications de l’IA dans leur processus de diagnostic aussi bien pour respecter leur consentement que pour les rendre acteur de leur santé. Cette transparence devient cruciale et permet aux patients de comprendre le rôle de ces technologies dans l’imagerie médicale. Il est donc important d’imposer des règles de bon usage de l’IA, tout en encourageant le développement de ces technologies. Par ailleurs, les réglementations vont devoir s’adapter et évoluer au gré des innovations.
Discussion
Aucun commentaire
Commenter cet article