Discours de la « Haine en ligne » : L’IA à la rescousse ?

Par Dr Souhir Lahiani

Par Dr Souhir Lahiani

La propagation de la haine en ligne est devenue un problème omniprésent dans notre ère numérique. Des discours haineux, des attaques personnelles et des campagnes de désinformation se répandent à une vitesse alarmante, ayant des conséquences néfastes sur la vie quotidienne des individus et sur la cohésion sociale. La lutte contre la haine en ligne fait l’objet depuis quelques années déjà de colloques scientifiques et de workshops, en général en marge de congrès consacrés à des thèmes plus larges, comme le traitement automatique du langage naturel (NLP).

 Dans le langage courant, le « discours de haine » désigne un discours injurieux visant un groupe ou un individu sur la base de caractéristiques intrinsèques telles que la race, la religion ou le genre et pouvant menacer la paix sociale.
Les Nations unies définissent le discours de haine comme étant « tout type de communication, orale ou écrite, ou de comportement, constituant une atteinte ou utilisant un langage péjoratif ou discriminatoire à l’égard d’une personne ou d’un groupe en raison de leur identité, en d’autres termes, de l’appartenance religieuse, de l’origine ethnique, de la nationalité, de la race, de la couleur de peau, de l’ascendance, du genre ou d’autres facteurs constitutifs de l’identité ».
Il n’existe toutefois pas de définition universelle du discours de haine consacrée par le droit international relatif aux droits humains. Ce concept est encore largement contesté, notamment en ce qui concerne la liberté d’opinion et d’expression, la non-discrimination et l’égalité.
Dans le contexte de l’intelligence artificielle (IA), cette technologie jouera-t-elle un rôle central dans la lutte contre ce fléau ? 

L’exemple de la France : « loi Avia »
En France, la loi du 24 juin 2020, dite « loi Avia », vise à lutter contre les contenus haineux sur internet. Ce texte prévoit une obligation pour les plateformes et les moteurs de recherche de retirer sous vingt-quatre heures les contenus « manifestement » illicites qui leur ont été signalés, sous peine d’être condamnés à des amendes pouvant aller jusqu’à 1,25 million d’euros. Les contenus à retirer sont les incitations à la haine, à la violence et aux injures à caractère raciste ou religieux.
La proposition de loi visant à lutter contre les contenus haineux sur internet part du constat d’une banalisation des discours racistes, sexistes, homophobes, notamment sur les réseaux sociaux, qui entraînerait une recrudescence des violences du même type.
Après une loi équivalente (NetzDG), adoptée en Allemagne le 1er septembre 2017, qui a servi de modèle sur de nombreux points aux auteurs de la proposition commentée, la France tente ainsi d’influer sur la politique menée au niveau européen. On se souvient qu’en 2016, sur initiative de la Commission, Facebook, Twitter, YouTube et Microsoft s’étaient engagés pour un « code de conduite destiné à contrer le discours de haine illégal en ligne ». Google+, Instagram, Snapchat et Dailymotion les ont rejoints en 2018. Mais cette autorégulation n’a pas produit d’effet tangible, de sorte que l’attrait pour une telle solution diminue.

Bien que le contenu haineux puisse être retiré dans les délais prescrits, il demeure que de tels discours continuent régulièrement à être exposés au regard du public, entraînant parfois des conséquences néfastes, voire tragiques. La détection automatique de cette haine numérique avec l’IA offre des capacités uniques pour analyser de vastes quantités de données en temps réel, ce qui permet d’identifier et de filtrer automatiquement les contenus haineux.

Guide de l’Unesco
L’Unesco œuvre pour la lutte contre les discours de haine en ligne en dotant les apprenants de compétences en matière de citoyenneté numérique, afin que les individus, quel que soit leur âge, apprennent à naviguer sur Internet de manière sûre et responsable.
« Nous devons affronter le fanatisme en luttant contre la haine qui se répand comme une traînée de poudre sur Internet.”, souligne António Guterres, Secrétaire général des Nations unies, 2023.
Dans ce sens, L’Unesco et le Bureau de la prévention du génocide et de la responsabilité de protéger des Nations unies (OSAPG) ont élaboré conjointement en 2023, le premier guide destiné aux décideurs politiques et aux enseignants, « Guide de l’Unesco destiné aux décideurs politiques pour contrer les discours de haine », explorant les réponses éducatives à ce phénomène et formulant des recommandations pratiques pour renforcer les systèmes éducatifs.

Tunisie : Décret-Loi 54
Un décret-loi relatif à la lutte contre les infractions se rapportant aux systèmes d’information et de communication, a été promulgué. Le décret, publié au Journal officiel de la République tunisienne (JORT) n°103 du 16 septembre 2022, introduit une peine de prison de cinq ans et une amende de 50 000 dinars tunisiens (15 622 dollars) pour toute personne répandant de « fausses informations » ou des « rumeurs » en ligne.
Selon l’article 24 du présent décret-loi, « est puni de cinq ans d’emprisonnement et d’une amende de cinquante mille dinars quiconque utilise sciemment des systèmes et réseaux d’information et de communication en vue de produire, répandre, diffuser, envoyer ou rédiger de fausses nouvelles, de fausses données, des rumeurs, des documents faux ou falsifiés ou faussement attribués à autrui dans le but de porter atteinte aux droits d’autrui ou porter préjudice à la sûreté publique ou à la défense nationale ou de semer la terreur parmi la population ».
Il dispose également que « toute personne qui procède à l’utilisation de systèmes d’information en vue de publier ou de diffuser des nouvelles ou des documents faux ou falsifiés ou des informations contenant des données à caractère personnel, ou attribution de données infondées visant à diffamer les autres, de porter atteinte à leur réputation, de leur nuire financièrement ou moralement, d’inciter à des agressions contre eux ou d’inciter au discours de haine, est passible des mêmes peines ». La peine prévue est doublée en cas de désinformation visant un agent public (responsable de l’Etat) ou assimilé, selon le décret.
En France par exemple, comme en Tunisie, les lois anti contenus haineux sur internet, sont perçues comme des menaces réelles pour la liberté d’expression. Ces textes de loi, bien qu’élaborés dans le but de réguler et de contrôler certains contenus en ligne jugés nuisibles ou illicites, suscitent des préoccupations quant à leur impact sur la liberté d’expression des individus et des journalistes. En effet, alors que la lutte contre la diffusion de la haine, de la désinformation et d’autres contenus préjudiciables est essentielle pour préserver la sécurité et le bien-être des internautes, les lois restrictives risquent de limiter injustement les droits fondamentaux des utilisateurs à la liberté d’expression et d’information.
En Tunisie, une initiative législative a été déposée le 19 février 2024, au nom de dix membres de l’ARP de différents blocs parlementaires et signée par quarante députés visant à amender le décret-loi n°54 relatif à la lutte contre les crimes liés aux systèmes d’information et de communication. Selon ces députés, la proposition de révision concerne un certain nombre d’articles du décret-loi en question, qui engendrent la restriction de la liberté des citoyens, des intellectuels et des journalistes dans leurs statuts, déclarations et articles.

Lutte contre la haine en ligne : Rôle crucial de l’Intelligence artificielle
« La première idée qui a été testée pour lutter contre ce fléau a consisté à rechercher dans ces discours des mots clés caractéristiques de la haine », explique Irina Illina, maître de conférences à l’université de Lorraine et chercheuse au sein de l’équipe Multispeech (université de Lorraine, Inria et CNRS) au Loria (Nancy).
Selon Illina, cette méthode ne marche pas. Il est trop facile de contourner ce genre de filtre, car la haine peut être exprimée sans faire usage d’un lexique particulier. Elle peut jouer sur l’implicite. Il est devenu assez rapidement évident qu’il fallait envisager le recours à des outils plus puissants, relevant de l’intelligence artificielle.
Selon Pierre Vandeginste, les réseaux de neurones sont aujourd’hui l’état de l’art. Et le modèle qui a le vent en poupe est le transformer. On a recours à des modèles lourds, comportant couramment une centaine de couches de neurones, parfois bien plus. « Avec ces modèles de langage, indique Irina Illina, on obtient déjà d’assez bons résultats. Typiquement, on détecte trois messages haineux sur quatre. La sensibilité est de l’ordre de 75%. Avec une spécificité du même ordre ».

 Un outil d’IA anti-discours de haine dans l’industrie du jeu vidéo
La franchise de jeu Call of Duty bien connue, est le premier grand nom de l’industrie du jeu vidéo à prendre des mesures contre les messages de haine. Le jeu implémente en effet l’IA dans ses systèmes de chat (discussion).
En effet, la société de jeux américaine Activision, à l’origine du développement du jeu de tir à la première personne « Call of Duty », a annoncé en septembre 2023 qu’elle surveillerait désormais les conversations de chat entre les joueurs au moyen d’un outil d’IA appelé ‘ToxMod’. Elle souhaite ainsi lutter contre les discours de haine, la discrimination et le harcèlement, qui constituent un véritable problème au sein de la communauté des joueurs, même avec les jeux les plus « pacifiques » tels que FIFA (Datanews).

L’outil d’IA ToxMod
L’outil d’IA ToxMod est un produit de Modulate, qui encourage les producteurs de jeux à protéger leurs joueurs contre la discrimination et le harcèlement. L’entreprise a développé un système d’IA qui tente de reconnaître les messages haineux en écoutant des enregistrements audios de chats entre joueurs. Il s’agit du premier logiciel de ce type, selon Modulate.
ToxMod enregistrera donc les mots et déclarations inappropriés et les transmettra au producteur Activision. Ni l’outil d’IA ni Modulate n’auront le pouvoir d’expulser des joueurs du serveur ou de refuser l’accès au jeu. Activision elle-même, en revanche, jugera, selon son propre code de conduite, si des joueurs doivent être bannis sur la base de leurs déclarations. Ces règles autoriseront, par exemple, les propos dits trash ou les insultes. Activision n’interviendra qu’en cas de discours haineux et de déclarations délictueuses. 

Une intelligence artificielle pour faire appliquer une loi chinoise luttant contre la dépendance aux jeux vidéo
En 2019, la Chine a adopté une loi qui vise à “empêcher” les mineurs de se livrer à des jeux en ligne et donc, d’en devenir dépendants. Ainsi, les jeunes Chinois ont pour interdiction de s’adonner à des jeux vidéo entre 22 heures et 8 heures du matin, tandis que leur durée de jeu maximale est portée à 90 minutes. D’autres limitations existent : la loi leur interdit de dépenser plus de 57 dollars par mois en microtransactions (souvent utilisées pour payer des jeux en ligne ou des bonus au sein même du jeu).
À la même époque, l’Administration nationale de la presse et de la publication et le ministère de la Sécurité publique du pays avaient déclaré qu’ils collaboraient pour la mise en place d’un “système d’identification unifié” pour les jeux. Tencent est un des géants technologiques avec lesquels ces deux instances travaillent pour faire en sorte d’appliquer ces lois.
La firme chinoise a proposé « Midnight Patrol », un programme de reconnaissance faciale qui suivra le temps de jeu des enfants et des adolescents durant la nuit. Le système sera implanté dans une soixantaine de jeux lancés par l’entreprise dont PlayerUnknown’s Battlegrounds (PUBG) version mobile, un des jeux de type “battle royale” les plus joués en Chine.

 L’utilisation de l’intelligence artificielle ne garantit pas une protection totale contre tous les risques
«Pour l’intelligence artificielle, ce qui importe, plus que le risque, c’est la réalité du danger», prévient le Pr Jean-Gabriel Ganascia dans sa chronique. Sciences et Avenir- La Recherche n°924, datée février 2024.
L’intelligence artificielle peut jouer un rôle crucial dans la lutte contre le discours de la haine en ligne, en offrant des outils efficaces pour identifier et limiter la propagation de contenus nocifs. Mais l’IA n’est qu’un outil parmi d’autres dans la lutte contre la haine en ligne. Une approche globale et polyvalente est nécessaire, qui combine l’utilisation de l’IA avec d’autres stratégies telles que la sensibilisation des utilisateurs, la modération humaine et la coopération internationale entre les plateformes numériques. De plus, l’IA ne peut pas résoudre tous les problèmes liés à la haine en ligne par elle-même, une réflexion approfondie sur les questions éthiques et les implications sociétales de son utilisation étant essentielle.
La haine ne cesse de trouver de nouvelles ficelles pour s’insinuer dans la société numérique. Il faut sans cesse la contrer.

Note
1 Site web officiel des Nations unies.
2 « La baisse tendancielle du discours raciste pénalement réprimé cache une hausse d’actes violents à caractère antisémite et antimusulman et une augmentation de la violence de ces actes » (Rapport L. Avia, 19 juin 2019, doc. AN n° 2062, p. 13).
3 V., dir. (UE) 2018/1808 du 14 nov. 2018, modifiant la dir. 2010/13/UE du 10 mars 2010 dite Services médias audiovisuels, art. 28 ter. V., aussi, la proposition de Règlement relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne, art. 3.
4 Journaliste français scientifique et responsable de la rubrique « Start-up » du magazine « La Recherche ».

Related posts

Le danger et la désinvolture 

Changer de paradigmes

El Amra et Jebeniana