Par Dr Souhir Lahiani
L’Intelligence artificielle (IA) est bien plus qu’un simple domaine de recherche. C’est un domaine en constante évolution, suivant un chemin de la logique, des statistiques, des mathématiques et de l’ingénierie (M Mondal et D. Lalanne). Ses implications sont vastes, pouvant révolutionner chaque secteur qu’elle effleure, que ce soit en approfondissant notre connaissance du monde, en automatisant des processus ou tout simplement en décuplant nos capacités à résoudre des problèmes.
Au cours des deux dernières décennies, les progrès fulgurants en matière de puissance de calcul et la prolifération exponentielle des données ont propulsé l’apprentissage automatique, en particulier l’apprentissage profond, sous les projecteurs de l’attention publique. En conséquence, tous les domaines connexes à l’analyse des données ont également émergé comme des terrains d’exploration précieux dans de multiples secteurs économiques.
Pourtant, malgré cette avancée spectaculaire, l’avenir de l’IA demeure incertain. Toutefois, une certitude demeure : l’IA continuera à exercer une influence majeure sur la recherche académique, les intérêts commerciaux, les politiques législatives et notre vie quotidienne. Ainsi, la compréhension des concepts fondamentaux de l’IA est impérative pour rester à la pointe de cette révolution.
IA et médias en Tunisie : l’exemple de Millim.tn
Dans un paysage médiatique où les défis éditoriaux et financiers se font particulièrement pressants, l’adoption de l’Intelligence artificielle (IA) semble être une piste prometteuse pour les entreprises de presse en quête de renouveau. Nombreux sont ceux qui perçoivent l’IA comme un domaine complexe et réservé aux experts en technologie, alors qu’elle pourrait être un véritable allié pour les journalistes dans leur travail quotidien. Des efforts de sensibilisation et de formation pourraient contribuer à lever ces barrières et à favoriser une meilleure intégration de l’IA dans les rédactions locales.
Pourtant, en Tunisie, cette révolution technologique peine encore à s’imposer comme une solution incontournable. Face à une double crise éditoriale et financière, les entreprises de presse cherchent des moyens innovants pour prospérer dans un environnement concurrentiel de plus en plus difficile. Plusieurs se montrent plus ouverts à l’expérimentation et testent activement certains dispositifs d’IA qu’ils jugent pertinents pour leurs besoins éditoriaux, mais la plupart des rédactions n’ont pas encore intégré pleinement l’IA dans leur stratégie de développement, sauf exception. Notons l’exemple du média numérique Millim.tn qui, pour la première fois en Tunisie, a intégré de manière organique l’intelligence artificielle dans son site web. Désormais, le lecteur a la possibilité d’engager une «conversation» avec les articles pour obtenir des éclaircissements ou des informations supplémentaires sur des points spécifiques. L’objectif de cette fonctionnalité novatrice est d’assister le lecteur dans la prise de décisions éclairées.
Selon le fondateur du site, Mounir Mili, « cette initiative ne constitue que la première phase de la stratégie du site visant à développer de nouveaux outils fondés sur l’intelligence artificielle. L’ambition est d’accompagner de manière plus efficace les lecteurs dans leur parcours en tant qu’investisseurs ».
L’intégration de l’intelligence artificielle par Millim.tn peut constituer un exemple inspirant pour d’autres médias. Cette avancée démontre le potentiel de l’IA pour améliorer l’expérience utilisateur et fournir des services innovants. En offrant aux lecteurs la possibilité d’interagir directement avec les articles, Millim.tn ouvre la voie à de nouvelles opportunités de revenus.
D’une part, cette fonctionnalité peut accroître l’attrait du site pour les annonceurs en offrant un environnement publicitaire plus interactif et ciblé. En permettant aux lecteurs de s’engager activement avec le contenu, les annonceurs ont la possibilité de diffuser leurs messages de manière plus efficace, augmentant ainsi la valeur de l’espace publicitaire.
D’autre part, cette intégration de l’IA peut également conduire à de nouvelles sources de revenus directes. Par exemple, Millim.tn pourrait proposer des abonnements premium offrant un accès exclusif à des fonctionnalités avancées basées sur l’IA, telles que des analyses approfondies des articles ou des recommandations personnalisées en fonction des préférences individuelles des lecteurs.
Alors que l’intégration de l’IA en Tunisie est encore en phase d’expérimentation, à l’échelle internationale, les avancées ont conduit à une exploitation plus poussée de cette technologie. Les entreprises à travers le monde utilisent désormais l’IA dans une multitude de domaines, allant de l’automatisation des processus commerciaux à l’amélioration de l’expérience client en passant par la création de contenus personnalisés.
Cependant, avec l’essor de l’IA, de nouvelles questions juridiques émergent et des plaintes judiciaires liées à son utilisation sont de plus en plus fréquentes. Les préoccupations concernant la protection de la vie privée, la discrimination algorithmique et la responsabilité en cas de décisions prises par des systèmes d’IA deviennent des sujets de débat majeurs.
AI et médias à l’échelle internationale : batailles juridiques en série
Dans un contexte où les frontières entre la technologie et les droits d’auteur deviennent de plus en plus floues, OpenAI a souligné sa disponibilité à travailler en partenariat avec les éditeurs et créateurs de contenus. L’objectif est de trouver des solutions mutuellement bénéfiques qui favorisent l’innovation tout en respectant les droits de propriété intellectuelle.
OpenAI se positionne comme un acteur prêt à dialoguer et à collaborer pour façonner un avenir où la technologie et la créativité peuvent s’épanouir ensemble.
La célèbre entreprise OpenAI a été au cœur de multiples batailles judiciaires tout au long de l’année 2023. Cette période a été marquée par des confrontations légales qui ont mis en lumière les enjeux complexes entourant les droits d’auteur dans le domaine de l’intelligence artificielle.
New York Daily News, Chicago Tribune, Orlando Sentinel, Sun Sentinel of Florida, San Jose Mercury News, Denver Post, Orange County Register et St. Paul Pioneer Press, huit journaux appartenant à Alden Global Capital, ont accusé OpenAI d’avoir illégalement copié des millions de leurs articles pour entraîner ses modèles, et ce, sans contrepartie financière, tout comme Microsoft qui en aurait fait de même pour Copilot.
New York Times par exemple a accusé OpenAI de violer le droit d’auteur en entraînant les modèles tels que GPT-4 sur ses publications sans autorisation, lui faisant ainsi perdre des milliards de dollars.
Face à ces accusations, OpenAI s’est rapidement positionné en défenseur de ses actions. L’entreprise a nié toute intention de spolier les éditeurs et créateurs de contenus. Au contraire, elle a affirmé sa volonté de collaborer avec eux pour garantir que tous puissent bénéficier des avancées de l’intelligence artificielle et explorer de nouveaux modèles de revenus.
Dans ce sens, John Ridding, PDG de FT Group, avoue que le partenariat entre OpenAI et les médias est important à plusieurs égards : « Cela reconnaît la valeur de notre journalisme primé et nous donnera un aperçu précoce de la façon dont le contenu est mis en évidence par l’IA. Nous sommes depuis longtemps un chef de file en matière d’innovation dans les médias d’information, pionniers du modèle d’abonnement et des technologies d’engagement, et ce partenariat nous aidera à rester à l’avant-garde des développements dans la façon dont les gens accèdent à l’information et l’utilisent ».
Un incident de violation de la vie privée en Autriche
Noyb, une organisation à but non lucratif basée à Vienne, en Autriche, se bat sans relâche pour défendre les droits fondamentaux à la vie privée et à la protection des données personnelles. Récemment, un incident a mis en lumière l’urgence pressante de faire respecter ces droits. Une personnalité publique s’est trouvée confrontée à une erreur tenace concernant sa date de naissance dans les données fournies par OpenAI. Face à cette violation flagrante de sa vie privée, elle a pris la décision courageuse de porter plainte devant l’Autorité autrichienne de protection des données.
Cette plainte n’est pas seulement une réaction à une erreur de saisie, mais une protestation contre le mépris flagrant des normes de confidentialité et de protection des données. Elle vise à déclencher une enquête complète sur les pratiques de traitement des données personnelles par OpenAI, et à exiger des mesures punitives sévères, conformément au règlement général sur la protection des données – RGPD, pour garantir que de telles violations ne se reproduisent plus à l’avenir. Le RGPD est clair : les données sur les individus doivent être exactes et accessibles, et les entreprises doivent être tenues responsables de garantir ces droits fondamentaux.
Cependant, OpenAI a ouvertement admis son incapacité à garantir cette précision, justifiant cela en affirmant que la perfection dans les modèles de langage reste un objectif lointain. Cette attitude est non seulement inacceptable mais dangereuse. Maartje de Graaf, avocate chevronnée spécialisée dans la protection des données chez Noyb, a souligné l’ampleur des enjeux. Elle a insisté sur le fait que la création et la propagation de fausses informations sont déjà des problèmes graves, mais lorsqu’elles concernent des individus, les conséquences peuvent être catastrophiques. De plus, elle a dénoncé le fait que les entreprises, y compris les géants de la technologie, se croient au-dessus des lois en matière de protection des données. Cette affaire révèle une vérité troublante : les avancées technologiques ne doivent pas se faire au détriment des droits fondamentaux. Si un système ne peut pas garantir la précision et la transparence des données personnelles, il ne devrait pas être autorisé à traiter ces données. La technologie doit être au service de la société, pas l’inverse.
Est-ce que l’IA comporte des risques ?
L’IA présente certainement des risques, et ceux-ci sont variés et peuvent être assez sérieux. On peut mentionner quelques-uns des dangers potentiels, comme l’utilisation de l’IA à des fins malveillantes telles que la création de spams, l’hameçonnage de données personnelles, la création de sites Web trompeurs et la génération de contenus violents ou discriminatoires. Mais, en plus de ces risques, il y a également des préoccupations concernant la perte de contrôle humain sur les systèmes d’IA. Selon les spécialistes, lorsque les algorithmes deviennent très complexes, il peut être difficile pour les humains de comprendre pleinement comment ils prennent leurs décisions, ce qui peut entraîner des conséquences inattendues ou non désirées.
De plus, il existe des préoccupations éthiques et sociales concernant l’utilisation de l’IA, notamment en ce qui concerne la protection de la vie privée, la discrimination algorithmique et le potentiel de renforcement des inégalités sociales.
Il est important de développer et de mettre en œuvre des réglementations et des normes éthiques pour guider le développement et l’utilisation de l’IA de manière responsable, en veillant à ce qu’elle soit utilisée pour le bien de la société dans son ensemble.