Le Conseil de presse, en partenariat avec le PAMT 2, a organisé ce mercredi 26 novembre une journée d’étude consacrée au thème « Journalisme, intelligence artificielle et déontologie », avec pour objectif l’élaboration des bases d’une charte nationale encadrant l’usage de l’IA dans les médias. Cette rencontre intervient dans un contexte où les outils de l’IA s’imposent de plus en plus dans les rédactions, souvent sans cadre clair, ni règles communes, ni garanties suffisantes pour la crédibilité de l’information et les droits du public.
Dans ce contexte, Manoubi Marrouki, président du Conseil de presse, a souligné la responsabilité collective qui pèse aujourd’hui sur l’ensemble des composantes du secteur des médias face à l’essor de l’IA précisant que l’usage de cette dernière dans certaines rédactions a déjà donné lieu à des dérives préoccupantes notamment sur le plan éthique. D’où l’importance d’un débat ouvert et constructif, à même de définir les principes, droits et devoirs qui devraient constituer le socle d’une future charte nationale. Il a assuré que cette charte devra être validée après concertation avec l’ensemble des structures du métier.
Si l’IA a bel et bien fait son entrée dans les rédactions tunisiennes, même modestement, elle reste, dans la quasi-totalité des cas, enveloppée d’opacité et considérée comme étant un sujet tabou, comme le souligne Mohamed Khalil Jelassi, président de la Commission Éthique du Conseil de presse. Modérateur de la journée d’étude, il explique que beaucoup de journalistes n’admettent pas encore l’utiliser, d’où l’importance d’une charte nationale éthique pour encadrer son usage, garantir responsabilité et transparence envers le public, et l’intégrer de manière raisonnée dans le processus éditorial. Selon lui, sans cadre éthique, l’IA, sujette aux biais et aux erreurs, pourrait mettre en danger le métier journalistique. Il assuré que les principes de la charte seront discutés avec les rédactions et les parties prenantes, puis affinés en commission avant d’être présentés aux médias tunisiens, qui pourront s’en inspirer sans obligation de les adopter tels quels.
Cette démarche participative engagée par le Conseil de presse pour poser les bases de cette charte éthique a été d’ailleurs saluée par Virginie Jouan, représentante du PAMT 2 qui a noté qu’il ne s’agit pas d’imposer une charte, mais de la construire collectivement par l’ensemble des parties prenantes afin de jeter les bases d’un socle de principes communs.
L’IA dans les médias : état des lieux, opportunités et limites
Lors de la séance plénière d’introduction et de cadrage, Laurence Dierickx, docteure de l’Université Libre de Bruxelles, spécialisée dans l’information numérique et l’IA, a présenté un état des lieux de l’usage de l’IA dans les médias à l’échelle internationale, en mettant en lumière ses opportunités et ses défis. Elle a rappelé que l’IA permet de collecter, traiter et diffuser l’information plus rapidement, d’automatiser certaines tâches comme les résumés d’articles, la traduction ou la modération des commentaires, et d’analyser de vastes volumes de données pour des enquêtes journalistiques.
En revanche, elle a insisté sur les limites et les dangers : désinformation, contenus manipulés, biais intégrés dans les systèmes, perte de traçabilité et risques pour la qualité de l’information. L’IA ne remplace pas l’humain ; elle doit être utilisée comme un outil d’appoint, avec supervision et validation humaine.
Elle a également évoqué les bonnes pratiques : transparence sur l’usage de l’IA, protection des sources, consentement des utilisateurs, formation des équipes et attention aux biais des systèmes. Selon elle, le dernier mot revient toujours au journaliste, garant de l’intégrité et de la fiabilité de l’information.
S’agissant de l’usage actuel de l’IA dans les médias tunisiens, Malek Khadhraoui, fondateur d’Inkyfada, a souligné l’intérêt croissant des rédactions qui testent, discutent et réfléchissent à son intégration. Il a précisé que 75 % des rédactions l’utilisent pour la traduction automatique, 58 % pour l’analyse de données, 50 % pour la vérification des faits, 41 % pour la rédaction d’articles simples et seulement 8 % pour le contenu audiovisuel ou les réseaux sociaux.
Quant aux freins identifiés, il a évoqué le manque de formation, l’accès limité aux outils internationaux, l’absence de solutions pour l’arabe dialectal tunisien et une méfiance vis-à-vis des outils automatisés. Khadhraoui a ensuite illustré l’usage de l’IA pour l’analyse de données, montrant qu’elle permet de traiter de grands volumes d’informations avec précision, à condition d’une formation adaptée. Il a évoqué l’expérience d’Inkyfada en citant des exemples concrets, comme l’étude des corrélations entre pauvreté et accès aux services publics via les enquêtes de l’INS, ou l’analyse quantitative de dizaines de discours politiques pour repérer les mots fréquents, dégager des thèmes récurrents et examiner le ton employé.
Enjeux juridiques et éthiques
De son coté, Dr Aymen Zaghdoudi, expert juridique, enseignant à l’Institut de Presse et des sciences de l’information a détaillé les enjeux juridiques et éthiques de l’usage de l’intelligence artificielle dans le journalisme. Il a insisté sur la nécessité d’un cadre légal centré sur la conception et la transparence des algorithmes, et non uniquement sur les contenus produits. Il a identifié les principaux risques : violation des droits d’auteur (décret-loi 54, loi sur la propriété littéraire et artistique), plagiat (article 32 du décret-loi 115, avec sanctions pénales et civiles), diffamation, injure, diffusion de fausses nouvelles, atteinte à la confidentialité des sources et protection des données personnelles (loi de 2004, transfert non autorisé à l’étranger passible de sanctions). Il a souligné que les modèles de l’IA ne sont jamais neutres, reflétant les choix économiques et politiques des sociétés qui les développent d’où la possibilité de générer des biais ou d’influencer l’ordre éditorial. Il a souligné l’importance de l’identification claire des outils de l’IA autorisés, l’évaluation des outils utilisés et l’encadrement des fournisseurs pour garantir le respect de l’éthique journalistique.
Poser les bases d’une charte nationale
La deuxième partie de la journée d’étude s’est déroulée sous forme d’ateliers interactifs, rassemblant membres du Conseil de presse, journalistes issus de différents médias, représentants d’organismes et acteurs de la société civile. L’objectif est de poser les premières pierres d’une charte éthique encadrant l’usage de l’IA en journalisme.
Cette charte s’inspire des principes fondamentaux de la déontologie du métier à savoir la lutte contre le plagiat et la diffusion de fausses informations, protection des droits d’auteur, protection des sources et des données personnelles etc. Les participants ont unanimement souligné la nécessité d’une vérification humaine systématique de tout contenu généré ou assisté par l’IA, d’une validation rigoureuse, ainsi que de la responsabilité directe des journalistes et d’une transparence totale vis-à-vis du public.
Elle s’articulera autour de trois axes principaux : ce qui est strictement interdit, ce qui est autorisé et ce qui est relativement toléré. Avant son adoption, la charte fera l’objet d’une concertation avec les parties prenantes, afin d’assurer son adéquation aux réalités du terrain et aux exigences de l’éthique journalistique.
Hajer Ben Hassen
Crédit photos : Riadh Sahli