#Nouvelles technologies Des initiatives politiques et juridiques tentent de mettre une structure éthique aux dernières avancées de l'IA.
Catherine Pugin, docteure en informatique, note pour sa part que la population se préoccupe de plus en plus des technologies émergentes et de leurs conséquences sur nos vies personnelles et professionnelles. Faut-il sans cesse aller plus vite dans les développements technologiques? Faut-il au contraire ralentir et prendre davantage de recul?
Ces interrogations entrent en résonnance avec des initiatives politiques et juridiques qui tentent de mettre en place une structure éthique plus solide comme soutien aux dernières avancées de la robotique ou de l’IA. On pense, par exemple et un peu paradoxalement, au refus par le peuple – à 64,4%, lors de la votation du 7 mars 2021 – de la loi fédérale sur les services d’identification électronique. Ce refus peut être compris comme une préoccupation – teintée de méfiance – plus grande de la population concernant les enjeux relatifs à la possession et à l’utilisation informatique de données personnelles. Soulignons aussi que le canton de Genève se place aujourd’hui en territoire pionnier après l'acceptation le 18 juin 2023, à 94,2%, d'une modification constitutionnelle visant à introduire une protection forte de l’individu dans l'espace numérique. Au niveau de l’Union européenne (UE), une loi globale sur l'IA (AI Act) est en cours de discussion. Elle propose que les systèmes d'IA qui peuvent être utilisés dans différentes applications soient analysés et classés en fonction du risque qu'ils présentent pour les utilisateurs et les utilisatrices. Si certains responsables politiques sont enthousiastes par rapport à cette évolution législative, d’autres demandent un texte équilibré qui ne freine pas la recherche. Le débat politique est actuellement vif entre les pays membres de l’UE. Certaines réunions semblent mal se passer, selon le journal Le Monde.
Ce débat a des échos dans les milieux intellectuels: «L'IA Act ne doit pas freiner l'innovation», plaide par exemple la scientifique Aurélie Jean, tandis que le philosophe et spécialiste de la théorie de l’information quantique Alexeï Grinbaum affirme que, pour éviter les projections de responsabilité sur la machine, l’IA doit bel et bien être régulée. «Les capacités émergentes de ces IA, imprévisibles et incontrôlables, nous confrontent à un problème éthique majeur: l’impossibilité, par exemple, de distinguer entre un texte écrit par un humain et celui généré par une machine.» Face à cette situation, on peut imaginer que des codes en filigrane de documents (watermarks ou tatouages numériques) ou autres méthodes de contrôle de l’authenticité d’un écrit ou d’un fichier électronique deviennent indispensables.
En autorisant les services tiers, vous acceptez le dépôt et la lecture de cookies et l'utilisation de technologies de suivi nécessaires à leur bon fonctionnement. Voir notre politique de confidentialité.