#Intelligence artificielle La performance technologique ne suffit plus. Confiance et responsabilité dans l’intelligence artificielle sont nécessaires.
Même dans des tâches simples, la plupart des prochaines applications auront recours à l’intelligence artificielle (IA).
Pour Sasha Rubel, de chez Amazon Web Services, «la confiance, l’innovation, une meilleure performance dans les affaires: tout est lié». Dans leur créativité, les développeurs informatiques se demandent parfois comment la société ou les responsables politiques vont réagir. Dès que l’on parle de confiance, chaque acteur doit aussi la ressentir.
Risque d'abord humain
L’éthique, le calcul mathématique et la loi fonctionnent cependant de façons très différentes, dans la réalité comme dans les esprits. Cette dimension culturelle ne peut être ignorée. Le débat n’est pas réductible à une IA amie ou ennemie par elle-même. L’IA est utilisée par des sphères criminelles tout en servant simultanément de solide protection à de nombreuses installations et processus.
Peut-être qu’avant même celui de la technologie, le risque de base est d’abord humain. Les outils de l’IA servent parfois à contrer des offensives menées avec de l’IA contre une administration ou une société. Toutes ces manœuvres paraissent lointaines et obscures. «Les liens entre l’utilisateur individuel et l’institution sont complexes à analyser, bien que cette interdépendance soit primordiale.» Telle est l’analyse en substance de Marie Sophie Müller, spécialiste au Geneva Science and Diplomacy Anticipator. A tous les niveaux, on trouve les notions de confiance et de crainte.
Frontière psychologique
Dans sa réunion du 20 septembre à Lausanne, Trust Valley a associé la confiance dans les infrastructures à la confiance dans les données véhiculées ou recueillies. L’écart entre l’instrument et l’usage ne cesse de se resserrer.
Par exemple, le super cerveau informatique peut servir à répandre de fausses nouvelles. A la frontière de la psychologie, la notion de sphère privée côtoie une IA capable de faire des choses que l’on n’est pas capable de faire tout seul dans notre sphère privée, avec nos propres données. On lui demande alors de nous aider. Les experts rappellent que l’éthique est une conception humaine que l’on peut insérer dans l’IA. Personne ne sait encore exactement comment elle l’utilisera à terme. «Avez-vous besoin d’un Chief Ethics Officer?» En posant la question, Laura Tocmacov Venchiarutti (ImpactIA Foundation) explore la nécessité de prévoir de nouvelles fonctions exécutives au sein des organisations, qu’elles soient privées ou publique. «Il n’y a pas encore de véritable formation pour ce type de postes.»
Au nom de la loi
Vouloir mettre en place une régulation ne va pas de soi. L’Union européenne se dote progressivement d’un cadre dans lequel il est question de valeurs et de droits fondamentaux. Dans cette optique, les algorithmes n’auront pas le droit d’influencer les comportements, ni d’instaurer des systèmes de notations sociales ou de généraliser une reconnaissance faciale des individus. Le débat devient politique avec, au niveau planétaire, des capacités technologiques semblables et des définitions variables des droits humains, y compris au sein du G7. De nouvelles règles ne suffiront pas à démystifier cette boîte noire qui impressionne de plus en plus. Son encadrement législatif sera lui aussi en perpétuelle construction.
Chez Microsoft, Marc Holitscher, national technology officer, a remarqué un intérêt croissant dans la sphère parlementaire helvétique pour ces questions. «Le rédacteur de la loi devra bien comprendre ce qu’il est en train de réguler. La Suisse n’a pas de texte spécifique sur l’IA, elle préfère attendre et observer», commente Prisca Quadroni-Renella (AI Legal & Strategy Consulting AG).
En autorisant les services tiers, vous acceptez le dépôt et la lecture de cookies et l'utilisation de technologies de suivi nécessaires à leur bon fonctionnement. Voir notre politique de confidentialité.