Impacts de l’intelligence artificielle dans les sphères du travail et de l’éducation, apprentissage automatique, internet des objets, contrôle et manipulation de l’information… Ces thématiques figuraient au programme du premier colloque d’HumanIA tenu à l’UQAM le 21 novembre dernier. Créé il y moins d’un an, HumanIA est un regroupement multidisciplinaire de chercheurs qui s’intéressent aux enjeux sociaux et éthiques associés aux développements technologiques en intelligence artificielle (IA).
«Les participants au colloque ont tous relevé l’importance pour les chercheurs provenant de divers horizons disciplinaires de se parler, d’établir des ponts entre les recherches en sciences humaines – histoire, sociologie, philosophie des sciences – et en intelligence artificielle», souligne la professeure du Département d’informatique Marie-Jean Meurs, coresponsable d’HumanIA.
L’événement a rassemblé plus d’une centaine de personnes: des chercheurs des différentes facultés de l’UQAM, du réseau de l’UQ, des Universités de Montréal et Concordia, des représentants des Fonds de recherche du Québec, des centrales syndicales et des milieux de pratique ainsi que des partenaires industriels et de l’international.
Une distance critique
Plusieurs experts présentent l’intelligence artificielle comme la nouvelle révolution qui va transformer nos vies. Marie-Jean Meurs et son collègue du Département d’histoire Yves Gingras, titulaire de la Chaire de recherche du Canada en histoire et sociologie des sciences, ont publié récemment un article dans Le Devoir intitulé «L’IA: promesses économiques ou économie de la promesse?» Dans ce texte, les deux chercheurs insistent sur la nécessité de pondérer les discours tant jovialistes qu’alarmistes autour des promesses de l’IA. «Calmons-nous, évitons de tomber dans la science-fiction et le marketing, dit Marie-Jean Meurs. Devant les espoirs et les craintes que suscite le nouvel environnement technologique, faisons preuve d’un optimisme prudent, prenons une distance critique afin de mieux évaluer les choix collectifs à venir.»
L’engouement actuel pour les technologies issues de l’IA engendre un discours prophétique de la part de leurs promoteurs, souligne la professeure. «Certains concepteurs de l’IA – informaticiens, mathématiciens, ingénieurs – s’improvisent sociologues ou philosophes, observe–t-elle. Certes, ils peuvent émettre des avis à partir de leur champ d’expertise, mais ils n’ont pas nécessairement les compétences et la légitimité requises pour se prononcer sur tous les enjeux sociétaux et éthiques soulevés par l’IA. Rendons aux sciences humaines ce qui leur appartient.»
L’IA en bref
L’intelligence artificielle repose sur deux facteurs clés: l’augmentation de la capacité de calcul des ordinateurs, qui autorise le développement d’algorithmes d’apprentissage de plus en plus performants, et la disponibilité de données massives, qui permet à ces algorithmes d’acquérir des connaissances toujours plus précises et complexes.
Basée sur l’apprentissage de données, l’IA permet de faire accomplir à des machines ou à des systèmes dits intelligents des tâches qui, traditionnellement, étaient assumées par des humains.
Éviter les conflits d’intérêts
L’élaboration de politiques publiques touchant le développement de l’IA et du numérique devra se fonder sur des données d’enquêtes effectuées par des organismes autonomes, crédibles et exempts de conflits d’intérêts, soutient Marie-Jean Meurs. «De la même façon que l’on ne demande pas aux chercheurs de Monsanto d’évaluer la toxicité du puissant herbicide glyphosate fabriqué par cette compagnie, il est difficile de se fier aux recommandations des acteurs de l’IA ayant des liens étroits avec les géants de l’informatique et du numérique.»
Des enquêtes devront être menées sur l’origine et les types de données utilisées pour influencer les prises de décisions dans différents domaines, sur les dangers de les croiser avec d’autres données, sur les risques de manipulation de l’opinion publique que comporte l’usage de certains algorithmes comme l’a montré le scandale de Cambridge Analytica. «Ces enjeux sont importants et complexes, d’où l’importance de recourir aux bons experts», souligne la chercheuse.
Le réseau HumanIA
Affilié au Centre interuniversitaire de recherche sur la science et la technologie (CIRST), principal regroupement dans ce domaine au Canada, HumanIA chapeaute aujourd’hui plus d’une centaine de professeurs-chercheurs, dont plusieurs provenant de toutes les facultés de l’UQAM. Il compte au moins autant de partenaires – organismes et entreprises – provenant de divers milieux (éducation, communications, santé, intelligence artificielle) au Québec, au Canada et à l’international.
HumanIA regroupe aussi bien des professeurs qui font de la recherche fondamentale en intelligence artificielle que ceux qui s’y intéressent d’un point de vue philosophique, juridique, sociologique, économique ou politique.
Réglementer l’IA?
Des commentateurs évoquent l’idée de réglementer l’IA, en particulier dans le secteur de la santé, là où des algorithmes alimentés par des données massives sont utilisés à des fins de détection et de prévention de maladies ou de chirurgie assistée. À titre d’exemple, l’IA permet de faire des progrès remarquables dans la détection de tumeurs cancéreuses à partir de banques de données d’images. Mais les analyses reposant sur les systèmes intelligents ne pourront jamais être dénuées d’erreurs. «Ces systèmes sont avant tout des outils d’aide à la décision qui ont été programmés en amont par des individus, mentionne la professeure. Il serait trop facile d’imputer aux systèmes intelligents la responsabilité des mauvaises décisions. Derrière les systèmes, on trouve toujours des humains.»
Les autorités publiques doivent se pencher sur les enjeux de l’IA en santé, compte tenu de leur importance pour la qualité de vie des individus. «Il faut s’interroger sur les données que l’on utilise pour alimenter les algorithmes d’apprentissage, sur les biais qu’elles peuvent contenir, sur leur certification, dit Marie-Jean Meurs. Plutôt que de croire sur parole tous ceux qui garantissent l’efficacité des outils intelligents, il vaut mieux s’assurer que ces outils ont été évalués avec des mesures fiables.»