Voir plus
Voir moins

Réfléchir aux enjeux éthiques de l’intelligence artificielle

Des chercheurs produisent un référentiel de compétences pour former à l’éthique de l’IA au cégep et à l’université.

Par Jean-François Ducharme

24 mai 2022 à 18 h 41

Mis à jour le 26 mai 2022 à 14 h 11

Les systèmes d’intelligence artificielle (IA) se développent à un rythme effréné, qui s’est encore accéléré depuis le début de la pandémie. Bien qu’ils représentent des avancées majeures dans plusieurs domaines, ces systèmes soulèvent aussi des enjeux éthiques. «On n’a qu’à penser à l’application de traçage Alerte COVID, lancée par le gouvernement canadien à l’été 2020, qui a engendré des conflits de valeurs entre la santé et la sécurité d’un côté, et la vie privée et la protection des données d’un autre côté», souligne Frédérick Bruneault, professeur associé à l’École des médias.

Pour mieux cerner ces enjeux, Frédérick Bruneault, André Mondoux, professeur à l’École des médias, et Andréane Sabourin Laflamme, étudiante au doctorat en droit et professeure de philosophie au Cégep André-Laurendeau, ont publié un référentiel de compétences pour former à l’éthique de l’IA au cégep et à l’université. Financé par le Pôle montréalais d’enseignement supérieur en intelligence artificielle, le document s’adresse à toute personne qui souhaite développer un programme ou un cours en lien avec l’éthique de l’IA, que ce soit en informatique, en éducation, en santé, en philosophie, en droit, en gestion ou en études médiatiques. «L’outil peut aussi intéresser les personnes qui développent des systèmes d’intelligence artificielle ou celles qui les utilisent», précise Frédérick Bruneault.

S’inscrivant dans le cadre du Plan d’action numérique en éducation et en enseignement supérieur du gouvernement du Québec, le référentiel cible trois composantes principales: la sensibilité éthique, soit de reconnaître les dimensions éthiques de l’IA dans différentes sphères de la vie courante; les capacités réflexives ou le savoir-agir; et les capacités dialogiques, soit de pouvoir interagir en situation éthique. Les aspects techniques des systèmes d’intelligence artificielle sont abordés, de même que les dilemmes moraux (ou conflits de valeurs) et les cadres normatifs qui s’y rattachent.

Plusieurs chercheurs et chercheuses de l’UQAM ont contribué à la réalisation du référentiel, dont Alexandre Blondin-Massé et Sébastien Gambs, professeurs au Département d’informatique; Dominic Martin, professeur au Département d’organisation et ressources humaines; Pierre-Léonard Harvey, professeur au Département de communication sociale et publique; et Hugo Cyr, ex-professeur au Département des sciences juridiques.

Frédérick Bruneault, André Mondoux et Andréane Sabourin Laflamme travaillent présentement à produire une trousse pédagogique qui proposera des activités en lien avec l’éthique de l’intelligence. La trousse est aussi financée par le Pôle montréalais d’enseignement supérieur en intelligence artificielle.