Système de soins et IA: des réponses pour faciliter l'innovation?

Pour être performante, l’IA a besoin de s’entraîner avec les données des patients. Or, elles sont confidentielles.
Pour être performante, l’IA a besoin de s’entraîner avec les données des patients. Or, elles sont confidentielles.
Vincent Malaguti
Publié vendredi 08 mars 2024
Lien copié

#Médecine En raison d’un cadre légal flou, le développement de solutions médicales basées sur l’intelligence artificielle est difficile. A l’image de cette technologie, la situation pourrait évoluer rapidement.

Utiliser l’intelligence artificielle (IA) pour soigner un patient, c’est possible. La start-up française CardioLogs propose une solution à destination des cardiologues, basée sur l’IA, pour détecter et prendre en charge les anomalies du rythme cardiaque.

En Suisse, une chercheuse du Geneva Digital Health Hub, Awa Babington-Ashaye, a développé un système de gestion de l’hémophilie utilisant cette technologie. Plus récemment, la société Biped, établie à Epalinges, a présenté une autre innovation: un harnais destiné aux personnes malvoyantes et aveugles, permettant de détecter un obstacle (vélos, trottoir, pistes cyclables, etc.), grâce à l’analyse d’images par une IA.

Un processus lourd

Lors de la présentation de cette innovation, fin janvier aux HUG lors d’une table ronde consacrée aux «défis juridiques de l’utilisation et de la mise en place de l’intelligence artificielle dans le contexte des systèmes des soins», Mael Fabien, cofondateur de Biped, a rappelé que de grands progrès pourraient être réalisés dans la prise en charge de certaines maladies grâce à l’IA.

Ces avancées restent toutefois limitées par un cadre juridique lourd pour les entreprises. «Notre harnais est le fruit d’un travail complexe au niveau juridique. Les procédures ont duré plus de deux ans et nous avons investi plus de cent mille francs dans ces démarches», indique-t-il. A l’entendre, celles-ci pourraient décourager certains entrepreneurs de se lancer dans le développement de solutions. Il n’existe aucune définition juridique officielle de l’IA, indique economiesuisse. Michel Jaccard, docteur en droit, associé fondateur de l’étude id est avocats et intervenant à la table ronde, estime de son côté qu’il est «possible de considérer l’IA comme un dispositif médical, selon l’ordonnance sur les dispositifs médicaux».

Sécurité et confiance

Le développement de solutions médicales basées sur l’IA pose la question de la protection des données et du respect de la nouvelle loi sur la protection des données. Pour entraîner l’IA, celle-ci a besoin de données médicales. Or, elles ne peuvent être obtenues sans l’accord éclairé de leur détenteur et sans l’aide d’un praticien, sous peine d’outrepasser le secret médical.

Quant à l’utilisateur, en l’occurrence un membre du corps médical, il doit être en mesure de fournir plusieurs garanties au patient. Parmi elles: prouver que la réponse fournie à l’aide de l’IA est «juste» et que les données recueillies sont stockées de manière sécurisée. Deux éléments impossibles à attester pour l’instant, assure Michel Jaccard. «Il est impossible de dire où les données sont stockées et de quelle manières les décisions sont prises.» Il attire aussi l’attention sur la véracité des décisions: que ce soit dans le secteur médical ou dans un autre secteur, «l’IA ne fournit pas la vérité, mais la réponse la plus probable».

Responsabilité?

Si l’IA se trompe et porte atteinte à la santé du patient, qui est responsable? Michel Jaccard rappelle que «l’IA dépend toujours de la matière première et de facteurs humains» et, en premier lieu, de l’utilisateur de la solution. Rien n’empêche d’utiliser ChatGPT ou une solution basée sur cette application dans le domaine médical, même si open.ai déconseille de le faire et décline toute responsabilité en cas d’utilisation abusive de son outil.

Quid de la responsabilité de l’entreprise ayant développé la solution? En la matière, quelle que soit la branche économique, toutes naviguent dans l’inconnu, rappelle economiesuisse dans un dossier politique consacré à l’IA. La faîtière interroge sur la responsabilité en cascade que pourrait entraîner la défaillance d’un de ces produits. Un patient lésé pourrait se retourner contre le praticien pour un dédommagement. Le praticien pourrait attaquer le fabricant de la solution pour lui demander d’assumer les dommages causés par une machine dont on ne connaît pas le cheminement des décisions et qui n’a pas de personnalité juridique, selon la loi sur la responsabilité du fait des produits.

Du concret en 2025?

economiesuisse estime que la distinction entre «défaut du produit» et «décision inopportune» jouera un rôle important dans la résolution de ces conflits. L’organisation n’appelle pas à une modification du droit, mais à se fonder sur celui actuellement en vigueur et à combler les lacunes par la jurisprudence. Elle appelle à «refuser une législation portant spécifiquement sur l’IA, en particulier si elle se fonde sur le modèle de l’Union européenne», notamment parce qu’il est axé sur les risques plutôt que sur les opportunités, ce qui freine l’innovation. De plus, toute réglementation précipitée de l’IA aurait un impact négatif sur l’innovation, la concurrence et la coopération internationale. Un empressement qui pénaliserait massivement les PME, prévient economiesuisse. Des éléments plus précis sont attendus pour fin 2024, lorsque le Département fédéral de l’environnement, des transports, de l’énergie et de la communication livrera un rapport présentant les différentes approches réglementaires compatibles avec les exigences internationales en vigueur. Ce dernier servira de point de départ pour élaborer un mandat en vue d’un projet de réglementation concret de l’IA en 2025.

insérer code pub ici