
Si le conflit en Ukraine s’inscrit jusqu’ici dans le schéma d’une guerre traditionnelle menée avec des armes conventionnelles et des troupes sur le terrain, de nombreux experts, notamment en études stratégiques et en droit, notent l’apparition, ailleurs dans le monde, de systèmes d’armes létales autonomes utilisant les avancées de l’intelligence artificielle pour tuer à distance. «Drones transportant des armes ou des charges explosives, véhicules autonomes équipés d’armes contrôlées à distance ou déclenchées par des détecteurs de mouvement, les manières de tuer qui relevaient de la science-fiction il y a quelques années sont devenues réalités. Et cela soulève plusieurs questions d’ordre éthique et juridique», observe le professeur du Département des sciences juridiques Bernard Duhaime, qui pilote un projet de recherche sur la question.
Au printemps et à l’été 2021, à la fin de son mandat au Conseil des droits de l’homme des Nations Unies à titre de président-rapporteur du Groupe de travail sur les disparitions forcées ou involontaires, Bernard Duhaime a côtoyé Morris Tidball-Binz, qui venait d’être nommé rapporteur spécial des Nations Unies sur les exécutions extrajudiciaires, sommaires ou arbitraires. «Il m’a indiqué sa volonté de mieux comprendre les enjeux entourant les systèmes d’armes létales autonomes ainsi que l’impact du développement fulgurant de l’intelligence artificielle dans ce domaine», raconte-t-il.
Bernard Duhaime a proposé au nouveau rapporteur de créer un projet de recherche académique sur le sujet. «L’objectif est d’effectuer un état des lieux en se basant sur la littérature scientifique, d’identifier les principaux enjeux, de soulever les questions pertinentes et de suggérer des pistes de réflexion», explique-t-il.
Les étudiantes à la maîtrise en droit Fanny Dagenais-Dion et Marjorie Côté Barton ont accepté de participer à cette recherche en marge de leur projet de mémoire respectif. «C’est une expérience intéressante pour elles, car cela touche aux droits humains, au droit de la guerre, au droit pénal international, à l’éthique, à la morale ainsi qu’aux enjeux technologiques, souligne le professeur. Et elles auront l’occasion de rencontrer des experts dans le domaine.»
Puisqu’il y a été nommé associate research fellow, Bernard Duhaime a proposé à l’Académie de droit international et de droits humains de Genève, qui regroupe des experts de l’Université de Genève et de l’Institut des hautes études internationales et du développement de Genève, de se joindre au projet. «Un groupe d’étudiants a été formé et parmi ceux-ci, on retrouve Vincent Roffi (B.A. relations internationales et droit international, 2020), un diplômé du BRIDI de l’UQAM», se réjouit-il.
L’attribution de la responsabilité
En droit international, l’État doit protéger et garantir le droit à la vie, à la liberté et à la sécurité des personnes, rappelle Bernard Duhaime, mais les règles qui s’appliquent en droit de la guerre sont différentes: lors d’un conflit armé, l’utilisation de la force mortelle, par exemple, est permise contre les membres des forces armées ennemies en tout temps.
En revanche, une panoplie d’instruments et de cadres juridiques interdisent ou réglementent l’utilisation de certaines armes. «Quand de nouvelles armes ou de nouvelles technologies apparaissent, on doit déterminer leur conformité avec le droit de la guerre en suivant différents principes, explique le juriste. Par exemple, on tentera de déterminer si l’utilisation d’une nouvelle arme permet de bien distinguer les civils des soldats, et par la même occasion si elle permet de circonscrire les dommages aux cibles militaires visées sans entraîner de dommages collatéraux.»
Le recours aux systèmes d’armes létales autonomes soulève la question cruciale de l’attribution de la responsabilité, analyse Bernard Duhaime. «Qui est responsable? La personne qui a appuyé sur le bouton à distance? Celle qui a planifié l’opération? Celle qui l’a financée? Celle qui a fourni les renseignements sur place?»
L’augmentation marquée (et inévitable) de l’intelligence artificielle dans les modes de prise de décision interpelle une foule d’acteurs en droit international. «Ce type de débats ne comporte que des zones grises, d’autant plus que certaines armes létales autonomes auraient été utilisées en dehors des conflits armés traditionnels, notamment pour des exécutions ciblées, poursuit le spécialiste des droits humains. Cela implique l’usage de technologies de reconnaissance faciale et les nombreux enjeux qui s’y rattachent.»
Consulter des experts
On parle souvent de «robots tueurs» à propos des systèmes d’armes létales autonomes, mais on fait fausse route… pour l’instant, note Bernard Duhaime. «L’intelligence artificielle sert, par exemple, à déterminer le délai de réponse du mécanisme, car il existe un décalage entre la liaison satellite et ce qui se déroule sur le terrain. Il y a donc toujours une composante décisionnelle humaine avec les armes létales autonomes. Ce n’est pas une entité d’intelligence artificielle qui prend toutes les décisions à elle seule. Mais ça risque d’être la prochaine étape…»
Les représentants de nombreux pays discutent de tous ces développements technologiques en collaboration avec des experts des industries militaire et informatique. «Nous ne prétendons pas nous substituer à ces spécialistes, mais nous souhaitons faire notre part afin d’aider le Rapporteur spécial à se positionner sur le sujet», remarque Bernard Duhaime.
Le groupe de recherche compte valider ses résultats de recherche avec quelques-uns des experts dans le domaine. Alexis Rapin, chercheur en résidence à l’Observatoire des conflits multidimensionnels de la Chaire Raoul-Dandurand, a accepté de participer à la phase ultérieure du projet, lui qui a signé un texte éclairant sur les armes létales autonomes dans La Presse+ en octobre dernier.