Un casse-tête informatique

vendredi 2 février 2018 3:26

Nous naviguons plusieurs heures sur les réseaux sociaux et il nous est difficile d’identifier les informations erronées ou partagées massivement par des bots.

Emma Jaquet


Du partage de verdict de la Cour d’appel du Québec sur Twitter à la divulgation de fausses nouvelles, les bots sont omniprésents sur les réseaux sociaux. L’usage de ces logiciels automatisés sans l’intermédiaire d’un humain demeure une zone grise de l’Internet.

Les dernières élections américaines ont permis l’explosion des bots sur les médias sociaux. « Sur Twitter, plusieurs messages ou nouvelles étaient propagés. Plus c’est partagé, plus c’est vu. D’ailleurs, les bots peuvent être plus faciles à identifier », explique Raphaël Khoury, professeur en informatique et mathématique de l’Université du Québec à Chicoutimi.

D’après la vidéo How Russians bots invade our elections, publiée le 31 octobre 2017 par le New York Times, Facebook serait l’une des plateformes utilisées communément par des bots russes en 2016 pour créer des faux comptes et influencer les électeurs. En Allemagne, lors du débat électoral opposant Angela Merkel et Martin Schulz, le hashtag #verräterduell («duel des traîtres») a abondamment circulé sur Twitter et a été attribué à des bots selon l’article Social media ‘bots’ tried to influence the U.S. election. Germany may be next publié par Science Mag.

Plusieurs types de bots sont créés pour concevoir du contenu en filtrant celui des journaux. L’utilisateur se verra ensuite conseiller des pages selon ses préférences pour son fil d’actualité Facebook. Le bot peut aussi adopter un comportement humain et produire des likes de manière massive.

« Il y a les attaques de déni de service, où il y a de fausses requêtes », spécifie Raphaël Khoury. Ces attaques empêchent un usager de se servir d’un site web. Selon lui, cette stratégie a été utilisée au Canada, en 2014, contre le gouvernement Harper et sa loi sur la citoyenneté visant à resserrer les critères d’admissibilité pour les demandeurs de citoyenneté.     

Un usage éthique

« La frontière entre l’humain et le bot est floue, car on ne sait pas si c’est la personne ou le robot qui a écrit le message », affirme Raphaël Khoury. Il faut aussi prouver que le bot a été créé de manière malintentionnée.

À l’inverse d’un accident de voiture, par exemple, les dommages provenant d’un bot sont virtuels et non réels. L’attribution de la responsabilité est donc un problème d’éthique et de droit, selon Mathieu Gravel, diplômé de la maîtrise en informatique de l’Université du Québec à Montréal.

« Il se peut aussi que le bot échappe au contrôle de son créateur et cela arrive régulièrement », raconte le diplômé. Souvent, les botnets, groupes de bots qui communiquent entre eux, peuvent dégénérer de faux virus informatiques. Punir le créateur devient compliqué, car l’objectif n’est plus le même.

« Un bot n’est ni gentil ni méchant. Tout dépend de l’humain et de son intention. Certains en créent pour se simplifier la vie et d’autres pour la complexifier », souligne Naël Shiab, journaliste de données pour le magazine l’Actualité.

Il faut donc demeurer vigilant et augmenter nos compétences techniques, selon Jean-Hugues Roy, professeur en journalisme et directeur de l’École des médias de l’UQAM. « Les journalistes, par exemple, doivent avoir plus de connaissances en informatique pour débusquer et reconnaître des robots malveillants, soutient-il. Ce ne sont pas seulement les journalistes, mais aussi tous les citoyens ».

Les bots exploitent les faiblesses humaines et si les citoyens en sont conscients, c’est un premier pas dans la bonne direction, selon M. Roy. La méfiance envers les bots est de mise pour les internautes.

« Ils devront développer des techniques journalistiques comme croiser les sources. Il faut les trouver, les considérer et les diversifier pour confirmer les informations », explique Mathieu Gravel. Afin de justifier une information, la règle des trois sources doit être priorisée par les citoyens, pense le bachelier.

Des indices, comme les répétitions ou les fautes d’orthographe et de typographie aident l’internaute à identifier un bot. « Jeter du contenu parce que c’est un bot qui l’a écrit serait à peu près aussi irrationnel que d’accepter un contenu juste parce que c’est un humain qui l’a écrit », nuance Mathieu Gravel. Les informations transmises par les humains peuvent contenir des renseignements erronés, c’est pourquoi il faut diversifier les sources en recueillant les contenus fournis par les bots et les humains.

Au-delà de la malveillance

Selon Marie-Jean Meurs, professeure en informatique et spécialisée en intelligence artificielle à l’UQAM, un programme existe pour filtrer les messages répétés par les bots. « Le traitement de langage naturel permet de regarder la fréquence des modifications, de filtrer les expressions et d’analyser le message », explique-t-elle. Malgré tout, « c’est comme le hacking ou la cryptographie, [protection des messages à l’aide de clés de chiffrement], les experts cassent le logiciel, mais celui-ci finit toujours par se complexifier », conclut Mme Meurs. 

Les bots peuvent être utilisés de façon bienveillante, selon Jean-Hugues Roy. « J’ai moi-même créé un robot, un compte twitter : Tribunaux québécois. Il a 587 abonnés et 58 000 tweets envoyés depuis sa création sans que j’intervienne. Dès qu’il y a un nouveau jugement rendu public de la Cour d’appel, mon robot les tweete automatiquement », révèle-t-il.

Les bots modérateurs lisent un message et repèrent le contenu à bannir. Des bots conversationnels animent des forums ou clavardent avec un internaute.

Un bot pourrait aussi servir de soutien psychologique afin de prévenir le suicide. «Facebook travaille sur ce point à l’aide de botnets. Ils vont lire le contenu de la personne et repérer les comportements suicidaires pour finalement entrer en contact avec elle», affirme M. Gravel.

Aux yeux de Mathieu Gravel et de Jean Julien Galiléo Massardi, doctorant en informatique à l’UQAM, les bots restent des outils, des agents virtuels produisant du contenu seulement dans un monde virtuel. Rediriger du contenu, d’un réseau social à un autre, est généralement considéré comme une action bienveillante, affirment les deux hommes.

Même si une part d’ombre subsiste quant au fonctionnement de ces logiciels, on peut entrevoir la possibilité d’un travail commun entre les humains et les bots. « Dans le meilleur des mondes, ce serait une cohabitation entre les deux, mais rien n’équivaut au cerveau humain », souligne Naël Shiab.

Leave a reply

required

required

optional