Voir plus
Voir moins

Renforcer le projet de loi fédéral sur l’IA

Le doctorant Lahcen Fatah plaide pour un projet de loi plus exigeant en matière de transparence des données algorithmiques.

Par Claude Gauvreau

8 septembre 2023 à 9 h 57

L’intelligence artificielle (IA) est devenue l’objet de tous les fantasmes, de tous les espoirs et de toutes les craintes. Si ses bénéfices dans plusieurs domaines sont documentés, notamment en santé (aide au diagnostic) et en environnement (prédictions météorologiques), il reste que les systèmes décisionnels automatisés comportent aussi des risques: opacité, erreurs, biais, discrimination, désinformation, perte d’emplois. Doit-on encadrer les développements de l’IA au nom du bien commun?

En juin 2022, le gouvernement canadien a présenté le projet de loi sur l’intelligence artificielle et les données (LIAD), l’une des composantes du projet de loi C-27 sur la mise en œuvre de la Charte du numérique, qui fait toujours l’objet de discussions au Parlement. «Le Canada a emboîté le pas à la Commission européenne et au Congrès américain, lesquels ont déjà proposé des mesures visant à encadrer de manière normative le déploiement de l’IA», rappelle le doctorant en science, technologie et société Lahcen Fatah.

Membre du Centre interuniversitaire de recherche sur la science et la technologie (CIRST), le chercheur estime que le projet de loi fédéral est trop timide et doit être renforcé avant son adoption. Il s’en est d’ailleurs expliqué dans une lettre publiée dans Le Devoir en juillet dernier ainsi que dans un article paru en mai 2023 dans la Revue canadienne de science politique. «Le projet LIAD, dit-il, doit avoir des exigences plus élevées, notamment en ce qui concerne la transparence des systèmes de décision automatisés et la gouvernance des données algorithmiques.»


Adoption rapide ou non?

En mars dernier, dans un document complémentaire au projet de loi, le gouvernement canadien prévoyait un processus de consultation de deux ans environ, soit jusqu’en 2025. Des dirigeants d’entreprises privées de nouvelles technologies et des spécialistes en IA estiment qu’il y a urgence à adopter le projet de loi compte tenu des progrès rapides et constants des systèmes d’IA dans de multiples domaines. Ils considèrent également que le projet de loi propose un juste équilibre entre les impératifs liés à l’innovation et la protection de la population.

«Les acteurs canadiens de l’IA ont intérêt, notamment sur le plan économique, à militer pour une adoption rapide de ce projet de loi, dont ils sont à la fois juge et partie, souligne Lahcen Fatah. Ces personnes souhaitent que le Canada se positionne comme un leader en matière d’IA et représente un pôle d’attraction pour les entreprises spécialisées dans ce domaine.»

De leur côté, des chercheurs issus principalement des sciences sociales craignent une forme de précipitation et soutiennent que l’on doit améliorer sensiblement le projet de loi avant son adoption, un point de vue que partage le doctorant. «Maintenir le leadership du Canada en matière d’IA et favoriser l’innovation technologique, tout en protégeant les intérêts de la population canadienne, passent par des exigences sans faille sur le plan réglementaire, observe Lahcen Fatah. Il faut donc être prudent et prendre le temps d’analyser le contenu du projet de loi afin d’avoir un projet solide. Une adoption trop rapide risque d’être problématique, sachant qu’il est toujours difficile de modifier une loi une fois celle-ci entrée en vigueur.».

«Le nerf de la guerre, ce sont les données qui nourrissent les algorithmes, des données créées par les humains qui reflètent les biais que l’on retrouve dans la société.»

Lahcen Fatah,

Doctorant en sciences, technologies et société

S’inspirer de l’Europe et des États-Unis

Le doctorant croit que le gouvernement fédéral aurait intérêt à s’inspirer des propositions réglementaires de l’Union européenne et du projet de loi américain sur la responsabilité algorithmique, lesquels vont beaucoup plus loin en matière de transparence et de gouvernance des données algorithmiques dans les systèmes d’IA. «Le nerf de la guerre, affirme Lahcen Fatah, ce sont les données qui nourrissent les algorithmes, des données créées par les humains qui reflètent les biais que l’on retrouve dans la société.»

Selon le chercheur, le projet de loi devrait encourager l’accès aux bases de données – y compris d’apprentissage – et s’intéresser à leurs modalités de collecte et de sélection ainsi qu’à leur utilisation par les algorithmes dont les décisions sont susceptibles d’avoir un impact sur les droits humains ou de soulever des enjeux éthiques. «Cela ne signifie pas que les données seraient ouvertes à tout le monde. Il s’agit de s’assurer d’une transparence par l’ouverture des données de traitement algorithmique, à l’exception de celles liées au secret industriel – des conditions d’accès pourraient être édictées – ou faisant l’objet de restrictions réglementaires. Ce serait un moyen efficace et légitime de contrôler la portée de certains systèmes d’IA et d’en comprendre les biais potentiels.»

Lahcen Fatah croit également que le projet de loi devrait se pencher sur le danger que peuvent représenter les systèmes  de reconnaissance biométrique (faciale, vocale, digitale). Des dispositifs de reconnaissance faciale, par exemple, ont été mis en œuvre aux États-Unis, mais aussi au Canada, par la Gendarmerie Royale du Canada (GRC) ainsi que par des forces de police à des fins de surveillance et de sécurité publique. «L’important est d’encadrer l’usage de cette technologie pour ne pas ouvrir la porte aux abus», indique le chercheur.

Comme le propose la législation européenne, le projet de loi fédéral pourrait enfin interdire la création, grâce à l’IA, de systèmes de notation sociale des individus pour le compte d’autorités publiques. Il s’agit de technologies particulièrement invasives qui se déploient, notamment, dans les procédures de gestion des contrôles aux frontières ou même d’embauche. En novembre 2021, les États membres de l’UNESCO ont adopté une résolution interdisant explicitement l’utilisation de systèmes d’IA pour la notation sociale et la surveillance de masse.

«En Chine, par exemple, au moyen du traitement automatique de données sur les faits et gestes de chacun, on mesure le degré de civisme des personnes, relève Lahcen Fatah. Des citoyens reçoivent de mauvaises notations parce qu’ils ne remboursent pas leurs dettes ou parce qu’ils ne traversent pas la rue au bon moment. Certains d’entre eux ne peuvent plus obtenir un prêt ou un crédit, ou voyager.».

«Les discussions ne doivent pas porter uniquement sur les innovations promises par les promoteurs de l’IA, mais aussi sur les implications sociopolitiques plus larges de l’IA.»

Pour une consultation démocratique

Le processus de consultation autour du projet de loi a suscité jusqu’à maintenant des critiques. Selon certains observateurs, on doit éviter de limiter la consultation à une poignée d’experts triés sur le volet et élargir plutôt le débat à l’ensemble de la population, compte tenu de l’importance des enjeux.

«Les groupes de la société civile et les chercheurs de divers horizons peuvent contribuer au débat, dit le doctorant. Dans les domaines de la santé et de l’éducation, les médecins et les enseignants, pour ne citer qu’eux, sont déjà confrontés à des systèmes d’IA. Il serait important de connaître leur point de vue en tant que praticiens. Enfin, les discussions ne doivent pas porter uniquement sur les innovations promises par les promoteurs de l’IA, mais aussi sur les implications sociopolitiques plus larges de l’IA.»

Plus récemment, soit depuis la mi-août, le gouvernement fédéral sollicite l’avis d’experts, sur invitation seulement, en vue d’encadrer les entreprises canadiennes qui développent des systèmes d’IA générative (textes écrits, photos, vidéos) de type ChatGPT. «Dans un article publié par le National Post, Teresa Scassa, professeure de droit à l’Université d’Ottawa spécialisée en IA et en protection de la vie privée, a critiqué le manque de transparence de la consultation, soulignant qu’on ignorait comment les experts avaient été choisis», note Lahcen Fatah.

«Chose certaine, on ne peut pas compter sur l’autorégulation de grands groupes privés, dont le désir est de l’emporter sur la concurrence.»


Ralentir la recherche sur l’IA?

En mars 2023, plus d’un millier de figures et d’experts de l’IA, dont le chercheur québécois Yoshua Bengio, directeur scientifique de l’Institut Mila, et le milliardaire Elon Musk, lançaient un appel pour établir un moratoire de six mois sur les développements de l’IA. L’objectif?  Ralentir la course aux innovations pour réfléchir collectivement aux usages de l’IA et donner le temps aux États d’adopter des mesures protégeant l’intérêt général. Cela n’a pas empêché Elon Musk de lancer peu après son propre système d’IA générative. Idem pour Google qui travaillerait actuellement à un modèle de langage appelé Gemini, susceptible d’être cinq fois plus puissant que l’application GPT-4 de la société américaine OpenAI.

«Chose certaine, on ne peut pas compter sur l’autorégulation de grands groupes privés, dont le désir est de l’emporter sur la concurrence, souligne le doctorant. Sans verser dans une peur irrationnelle, l’enjeu général est celui du pouvoir croissant et inégalé des grandes entreprises de technologie, qui accaparent l’essentiel de la recherche et de la production en intelligence artificielles. Dans ces conditions, les États ont un rôle à jouer dans la réglementation de l’utilisation des nouvelles technologies par ces entreprises afin de prévenir et de contrôler les dérives potentielles.»

Lahcen Fatah mène sa recherche doctorale sous la direction du professeur du Département d’histoire Yves Gingras et de la professeure du Département de communication sociale et publique Florence Millerand. Son sujet porte sur l’émergence et l’évolution des politiques d’ouverture des données publiques dans le cadre de l’économie des promesses techno-scientifiques, dans le monde et au Québec. Il siège au conseil d’administration de l’OSBL Nord Ouvert, qui travaille avec des partenaires publics, privés et de recherche pour favoriser l’utilisation responsable des données et de la technologie.