Voir plus
Voir moins

Intelligence artificielle: menace pour l’humanité?

Des scientifiques proposent des pistes pour baliser la recherche et éviter les dérives.

Par Marie-Claude Bourdon

9 février 2015 à 12 h 02

Mis à jour le 9 février 2015 à 12 h 02

«Il est certain qu’il faut commencer à réfléchir aux déraillements possibles et se donner les moyens de réagir, y compris de pouvoir débrancher un système hors de contrôle», dit Pierre Poirier, professeur au Département de philosophiePhoto: Istock

L’avenir de l’humanité est-il mis en péril par le déploiement des technologies d’intelligence artificielle? Les pires scénarios de la science-fiction risquent-ils de devenir réalité? Des robots devenus plus intelligents que les humains pourraient-ils prendre le contrôle de la planète?

Les progrès rapides dans ce domaine, combinés à la disponibilité de millions de données et à une augmentation continue de la puissance de traitement ont amené des scientifiques et ingénieurs de renommée internationale – dont le physicien Stephen Hawking, l’ingénieur Elon Musk (fondateur de Paypal), l’informaticien Stuart Russell et le philosophe Nick Bostrum – à signer une lettre, le 11 janvier dernier, qui a eu l’effet d’une bombe dans certains milieux. Publiée sur le site The Future of Life Institute, la lettre plaide pour un programme de recherche visant le développement d’une intelligence artificielle «solide et bénéfique». Mais elle pointe en filigrane certains risques de dérive qu’on a davantage l’habitude de voir évoquer au cinéma que sous la plume des scientifiques. Dans les médias, on a carrément parlé de la bombe «i», l’intelligence artificielle pouvant s’avérer «potentiellement plus dangereuse que l’arme nucléaire», selon Elon Musk.

Professeur au Département de philosophie, Pierre Poirier s’intéresse depuis longtemps à la question de l’intelligence artificielle. Ce spécialiste des sciences cognitives et de la philosophie de l’esprit trouve la réaction médiatique grandement exagérée. «Il s’agit d’une lettre assez posée dans laquelle on ne retrouve pas le sentiment de panique dont les médias se sont fait l’écho, dit-il. Elle propose une réflexion prudente sur l’avenir de la technologie, comme cela devrait se faire pour toutes les technologies.»

Intelligences spécialisées

Il est certain, affirme le professeur, que l’on va assister, au cours des prochaines décennies, à une explosion d’intelligence artificielle (I.A.), avec d’importants développements dans la reproduction de capacités humaines particulières comme la reconnaissance de la parole, la vision artificielle, la prise de décision ou la traduction automatique. Mais la perspective de voir émerger une I.A. générale capable de réunir toutes ces I.A. spécialisées et de «supplanter» l’humanité, selon les craintes exprimées par Stephen Hawking dans les médias, demeure extrêmement lointaine, pour ne pas dire hautement hypothétique.

«Un scénario à la Terminator, où un réseau de contrôle de la circulation devient fou et prend le contrôle de la ville, ça demeure de la science-fiction, affirme Pierre Poirier. Le niveau de complexité de tout ce qu’il faudra programmer pour parvenir un jour à quelque chose qui ressemble aux capacités cognitives humaines est tellement élevé que ça ne risque pas d’arriver par accident.»

Le contenu du projet de recherche proposé dans la lettre du Future of Life Institute apparaît tout à fait raisonnable aux yeux du philosophe. «Au fond, ce qu’ils disent, c’est qu’on devrait consacrer une partie de nos ressources, dans les universités et dans l’industrie, à un ensemble de priorités de recherche visant à s’assurer que l’I.A. qui a, en gros, été bénéfique pour l’humanité jusqu’à maintenant, le demeure.»

Impacts sur le travail

Les cosignataires de la lettre proposent entre autres que des études soient menées sur les impacts de l’I.A. dans le monde du travail. L’automatisation croissante de nombreux secteurs économiques se traduira inévitablement par le chômage de larges segments de la population.  «Pensez à toutes les personnes qui ont perdu leur emploi dans les banques parce que ce sont maintenant des machines qui distribuent l’argent, dit Pierre Poirier. Cela va continuer, y compris pour des tâches beaucoup plus sophistiquées. IBM travaille sur des systèmes de questions-réponses dont le but ultime est de remplacer les médecins pour établir des diagnostics!»

Ce type d’impacts n’interpelle pas seulement les économistes, mais aussi les sociologues, les psychologues et même les historiens, affirment les auteurs de la lettre. Il faut, selon eux, réfléchir aux politiques publiques susceptibles d’atténuer les effets pervers de l’I.A. sur le monde du travail, entre autres des mesures permettant d’utiliser la richesse créée grâce à l’automatisation pour soutenir des populations à fort taux de chômage. Des aristocrates d’autrefois aux riches citoyens du Qatar actuel, l’histoire fournit des exemples de sociétés dans lesquelles d’importants sous-groupes ne sont pas obligés de travailler pour assurer leur sécurité économique. Il faut, selon eux, étudier les facteurs qui favorisent l’épanouissement de ce type de sociétés.

«Au début de l’industrialisation, on commençait à travailler à 12 ans, souligne Pierre Poirier. Aujourd’hui, un prof d’université est embauché vers l’âge de 35 ans. Le fait que les jeunes étudient de plus en plus longtemps avant d’entrer sur le marché du travail pourrait faire partie des facteurs permettant de mieux distribuer l’emploi.» Selon lui, l’éducation pourrait servir de levier afin que les personnes qui n’ont pas de travail rémunéré puissent avoir des activités créatives et contribuer à la société. «Il faudra peut-être redistribuer la richesse en tenant compte que certaines personnes ne travaillent pas ou n’ont pas une activité rémunérée pendant de longues périodes de leur vie.»

Questions éthiques

La lettre soulève de nombreuses questions légales et éthiques posées par l’implantation de technologies d’I.A. comme les voitures autonomes (capables de se conduire toutes seules) qu’on nous promet dans un futur rapproché. «Si les voitures autonomes permettent de réduire de moitié les quelque 40 000 accidents de la route mortels qu’on recense chaque année aux États-Unis, les fabricants automobiles risquent davantage de recevoir 20 000 mises en demeure que 20 000 messages de remerciement», notent les auteurs de la lettre. Cela ouvre tout un champ de recherche pour les juristes, mais aussi pour les spécialistes des assurances.

Des questions se poseront également dans le domaine de l’éthique des machines. «Les machines sont programmées pour faire ce qu’on leur dit de faire, observe Pierre Poirier, et, dans certains cas, cela pose des questions délicates. Par exemple, comment doit-on programmer une machine – une voiture autonome, un drone – qui doit choisir entre le risque de blesser légèrement un humain et la quasi-certitude d’un coût matériel élevé? Entre le risque de tuer une personne et la quasi-certitude d’en blesser un grand nombre?»

Il pourrait arriver, mentionne le philosophe, que deux règles d’éthique qu’on aurait programmées entrent en contradiction l’une avec l’autre. «Même si cela se produisait très rarement, il faudrait être en mesure de prévoir ce que fera la machine. C’est pour détecter et régler tous les petits bogues qui peuvent survenir et qu’on n’avait pas prévus qu’on diffuse d’abord des versions bêta des logiciels mis sur le marché. Or, avec l’I.A., un petit bogue, ça peut avoir de grosses conséquences.»

Sécurité et contrôle

Les comportements indésirables de machines programmées pour être de plus en plus autonomes deviendront plus difficiles à contrôler. De nombreuses questions soulevées dans la lettre du Future of Life Institute ont trait à la sécurité des systèmes d’intelligence artificielle – vulnérables, comme n’importe quel autre système informatique, aux cyber-attaques – et à leur contrôle. Il faut, selon les cosignataires, développer des procédures pour s’assurer que ces systèmes continuent de faire ce qu’on veut qu’ils fassent.

«Pour l’instant, les systèmes d’intelligence artificielle n’étant pas déployés sur de larges échelles, les conséquences d’une perte de contrôle seraient relativement restreintes, souligne Pierre Poirier. Mais il est certain qu’il faut commencer à réfléchir aux déraillements possibles et se donner les moyens de réagir, y compris de pouvoir débrancher un système hors de contrôle.»