Josiane Van Dorpe (B.A. linguistique, 2022) a toujours aimé jouer à des jeux vidéo. «Lorsque le professeur Grégoire Winterstein a annoncé qu’Ubisoft était à la recherche d’une étudiante ou d’un étudiant pour réaliser une étude sur la toxicité dans les clavardages de jeux vidéo, dans le cadre d’un stage financé par Mitacs, je me suis portée volontaire immédiatement, raconte la jeune chercheuse. Et la beauté de la chose, c’est que ce stage s’est transformé en projet de maîtrise!»
Un phénomène répandu
Selon l’organisation Fair Play Alliance, 83 % des joueurs adultes ont vécu des préjudices ou du harcèlement dans les jeux en ligne. «Les personnes qui jouent à des jeux en ligne aiment communiquer entre elles, par clavardage ou par chat audio. Aussitôt qu’on commet une erreur ou si on est simplement moins bon que le moyenne, on se fait insulter, témoigne Josiane Van Dorpe. Souvent, c’est pour rire et se défouler, mais on retrouve aussi des cas flagrants de harcèlement. Comme femme, je n’utilise jamais mon microphone. Si on entend ma voix, j’ai droit à tout coup à des insultes sexuelles.»
Ce type de harcèlement n’est pas l’apanage des jeux vidéo violents. «Aucun jeu n’échappe à ces comportements désagréables, observe Josiane Van Dorpe. Les joueurs et les joueuses estiment que les entreprises n’en font pas assez pour contrer le phénomène.»
Ce n’est pourtant pas faute d’essayer, car la plupart des grandes compagnies ont élaboré ou élaborent des outils de détection. «Certains de ces outils fonctionnent avec des listes de mots-clés pour reconnaître les messages problématiques. Un système automatisé remplacera, par exemple, les mots bannis par des astérisques dans le clavardage», explique la chercheuse. Plusieurs compagnies se fient aussi au signalement par les pairs. «Si un joueur a un comportement toxique, les autres peuvent le signaler en détaillant les agissements problématiques. Les décisions liées à des sanctions sont prises par des modérateurs humains qui vérifient ces signalements. La sanction choisie – avertir, bloquer ou bannir – varie selon le type et le nombre de signalements», ajoute-t-elle.
League of Legends : l’un des pires
C’est La Forge, le réseau de recherche et développement d’Ubisoft en lien avec le milieu académique, qui dirige le projet sur la toxicité dans les clavardages de jeux vidéo auquel s’est jointe Josiane Van Dorpe. «Ubisoft a conclu un partenariat avec Riot Games, qui commercialise League of Legends afin de partager les données de clavardage. Ce jeu, l’un des plus populaires dans le monde, est aussi l’un des pires en ce qui concerne la toxicité des échanges entre joueurs», souligne-t-elle.
Les deux entreprises souhaitent développer un nouvel outil de détection plus performant, utilisant le traitement automatique des langues, domaine de prédilection de Josiane Van Dorpe. «Le traitement automatique des langues se situe au confluent de la linguistique, de l’informatique et de l’intelligence artificielle», explique la chercheuse. Il vise à créer des outils de traitement de la langue naturelle, celle que l’on parle tous les jours, pour diverses applications. La plus récente sensation technologique, le robot conversationnel ChatGPT, est issu des travaux dans ce domaine. «Au lieu de se baser uniquement sur une liste de mots, l’outil pourra considérer le contexte de l’échange en analysant, par exemple, les phrases précédentes», illustre la chercheuse.
Corriger les biais
Le défi avec le traitement automatique des langues et l’intelligence artificielle, ce sont les biais. Un modèle prédictif de langue, comme celui derrière le moteur de recherche de Google, qui nous propose des mots au fur et à mesure qu’on tape des lettres sur le clavier, a été entraîné en «lisant» un nombre phénoménal de textes tirés de Wikipédia, de Google News et autres sources. À partir de ses lectures, la machine se forge une représentation de la langue avec tous les biais qu’elle comporte. «Faites le test dans Google Traduction, propose la candidate à la maîtrise. Si on écrit “My friend is a doctor” et “My friend is a nurse”, la machine nous retournera la traduction française “Mon ami est un docteur” et “Mon amie est une infirmière”, ce qui dénote un biais de genre.»
C’est en fournissant à l’intelligence artificielle d’autres données d’entraînement spécifiques qu’on peut infléchir ces biais automatiques. «Dans le cas de la toxicité, on pourra, par exemple, fournir à l’outil de détection des extraits de clavardage en lui indiquant ce qui est toxique», illustre Josiane Van Dorpe.
Dans le cadre de sa maîtrise, sous la direction de Grégoire Winterstein, l’étudiante tentera d’identifier les biais du modèle de détection élaboré par Ubisoft et d’établir leur provenance. «Avec ce que je découvrirai, l’entreprise pourra corriger les biais de son outil de détection de toxicité, mais aussi s’en servir pour détecter si d’autres outils qu’elle utilise ont intégré des biais», souligne-t-elle.
De l’orthophonie au traitement automatique des langues
À l’écouter parler de sa passion pour les jeux vidéo, on ne se doute pas une seconde que Josiane Van Dorpe se destinait à une carrière en orthophonie. «Tous mes cours complémentaires étaient orientés pour accéder à la maîtrise en orthophonie jusqu’à ce que je découvre l’existence du traitement automatique des langues dans un cours du professeur Winterstein pendant ma deuxième année», raconte-t-elle.
Elle a abandonné les cours préparant à la maîtrise en orthophonie au profit de cours de programmation et de traitement automatique des langues. «Une base en programmation est un atout indéniable pour naviguer dans le domaine du traitement automatique des langues», souligne la chercheuse, qui a appris les langages Python, C++ et Java.
Durant sa dernière année au bac, l’étudiante a réalisé une étude sur les biais implicites et explicites dans le discours en ligne des incels, ces communautés masculines en ligne dont les membres se définissent comme étant incapables de trouver une partenaire amoureuse ou sexuelle, état qu’ils décrivent comme «célibat involontaire». «Disons qu’il s’agissait d’un sujet difficile et que j’ai lu beaucoup de textes toxiques, relate Josiane Van Dorpe. J’étais plutôt blindée et prête pour me lancer dans une étude sur les comportements toxiques en ligne!»