Le discours techniciste se veut plutôt rassurant : l’intelligence artificielle n’est pas humaine. Ce ne sont que des algorithmes et des logiciels de prédiction statistiques, dépourvus de conscience et éloignés de la logique humaine.
Ah ces ingénieurs et experts…ils trouvent toujours les mots qu’il faut pour nous convaincre que la technologie est sous contrôle, maitrisée, presque domestiquée…Pourtant, la réalité est bien plus nuancée. Dans nos usages quotidiens, notre rapport à l’intelligence artificielle oscillant entre une instrumentalisation rationnelle et une projection anthropomorphique qui lui attribue des caractéristiques humaines.
L’observation des interactions montre un glissement : nous ne nous contentons plus de nous approprier la technologie, nous entrons dans une forme de con-fusion où nos pratiques et notre langage brouillent la frontière entre l’outil IA et l’usager. Cette évolution mérite d’être examinée à travers les usages qui se sont cristallisés et les marqueurs linguistiques qui trahissent cette ambivalence…encore faut-il, d’ailleurs pouvoir continuer à parler d’ « outil ».
L’IA : conseiller et aide à la décision
Cet usage illustre parfaitement l’ambivalence et la con-fusion en question. Les usagers s’adressent à l’IA comme à un conseiller : « Tu penses que je devrais privilégier quelle option ? », « Qu’est-ce que tu me conseillerais dans cette situation ? », « Aide-moi à décider entre ces deux choix »… Cet usage pose la question de la délégation de jugement. En attribuant à l’IA la capacité de conseiller, nous suggérons implicitement qu’elle possède une forme de sagesse ou de discernement. L’algorithme devient prescriptif, et non plus seulement descriptif ou génératif. Cette transformation n’est pas anodine, elle signale que nous accordons à la machine une autorité cognitive qui dépasse celle d’un simple outil.
Cette dynamique se trouve tant dans le cadre personnel que dans la sphère professionnelle « Peux-tu m’aider à structurer ma présentation ? » ou « Qu’est-ce que tu penses de cette stratégie marketing ? », « crois-tu que cette décision est la bonne ? »… À travers ces usages, l’IA s’installe comme un partenaire de décision, brouillant la frontière entre assistance et influence.
L’utilisation du pronom « tu » et des verbes comme « penser » ou « croire » n’est pas anodine. Elle révèle un glissement sémantique : nous ne demandons pas à l’IA de générer des options basées sur ses données d’entraînement, nous lui demandons son « avis », comme nous le ferions avec un collègue ou un ami. Cette formulation suggère que nous attribuons à la machine une forme de subjectivité, voire d’expertise personnalisée.
L’IA tuteur et guide académique
Dans le domaine éducatif et académique, l’intelligence artificielle joue le rôle de tuteur. Les étudiants lui demandent : « Explique-moi ce concept », « J’ai besoin que tu m’aides à comprendre cette théorie », « mon raisonnement est-il correct ? », « reformule-moi ce texte »…. De leur côté, les chercheurs la sollicitent pour formuler des hypothèses, analyser des données, explorer des problématiques complexes, vérifier la cohérence de leur raisonnement…
Les verbes « expliquer », « aider », « savoir », « formuler », « analyser »… présupposent une cognition et une pédagogie intentionnelle. Pourtant, l’IA ne « sait » rien au sens humain du terme : ces grands modèles de langage (LLMs) accèdent à des patterns linguistiques; soit des formes de langage récurrentes, et génèrent des réponses probabilistes. Dans l’interaction quotidienne, cette distinction entre l’IA et l’humain s’efface. Ce qui compte, c’est l’efficacité de la réponse, non sa nature véritable.
L’IA comme confident
Plus frappant encore, l’intelligence artificielle devient parfois un véritable confident. Des utilisateurs y déposent leurs préoccupations, leurs doutes, leurs états émotionnels : « Je me sens perdu dans ma carrière, je ne sais plus quoi faire », « J’ai peur de cette décision importante », « Personne ne comprend ce que je traverse »…
Ici, le paradoxe s’intensifie. Rationnellement, chacun sait qu’il s’adresse à un système algorithmique. Pourtant, le simple fait de formuler ces confidences dans un langage naturel et de recevoir des réponses structurées et empathiques, crée l’illusion d’une véritable relation. L’IA ne comprend ni ne ressent, et dans le cadre d’usages gratuits, ces confidences ne sont jamais vraiment « confidentielles ». Pourtant, sa capacité à générer des réponses qui simulent la compréhension et l’empathie suffit à déclencher chez l’usager des mécanismes psychologiques d’attachement et de projection.
Les marqueurs linguistiques : une synthèse révélatrice
Au-delà de la diversité des usages observés, c’est l’analyse transversale du langage employé qui confirme cette con-fusion. Quelle que soit la situation, les mêmes marqueurs anthropomorphiques réapparaissent, révélant un glissement constant vers une humanisation implicite de l’IA.
D’abord, le tutoiement systématique et l’usage de l’impératif reproduisent les schémas d’interaction interpersonnelle. Nous ne programmons pas l’IA, nous lui donnons des instructions comme à un assistant humain : « Fais-moi une synthèse », « Corrige ce texte », « Génère trois idées »…Cette immédiateté langagière efface la médiation technique.
Ensuite, l’attribution massive de verbes cognitifs constitue sans doute le marqueur le plus révélateur. « Comprends », « sais-tu », « pense », « sens-tu la nuance » … autant d’injonctions qui présupposent intentionnalité et conscience. Leur utilisation systématique signale une projection anthropomorphique profonde, au-delà du simple raccourci linguistique.
Par ailleurs, les formules de courtoisie émergent spontanément à l’échange : « Merci beaucoup », « S’il te plaît », « Excuse-moi de te déranger ». Inutiles fonctionnellement puisque l’IA n’a pas d’émotions à ménager, ces marqueurs révèlent notre difficulté à maintenir une distance purement instrumentale.
Enfin l’expression directe d’émotions et de jugements révèle la profondeur de cette con-fusion. Frustration « Tu n’as rien compris ! », colère « C’est n’importe quoi », satisfaction « Tu es génial », gratitude « Je savais que je pouvais compter sur toi »…ces réactions sont dirigées vers un système algorithmique comme s’il était responsable de ses performances. Certains utilisateurs vont jusqu’à écrire des expressions absurdes, notamment dans les conversations vocales, juste pour rire de sa « réaction » ou de sa « bêtise ».
Or ce registre émotionnel n’est que le symptôme d’un glissement plus profond. Nous reprochons à l’IA d’être « subjective », de ne pas avoir « compris », d’avoir « mal interprété », des concepts qui présupposent des capacités cognitives et une agentivité qu’elle ne possède pas. Même les développeurs, les ingénieurs et les chercheurs qui conçoivent ces systèmes utilisent des termes humanisants, à commencer par des expressions comme « apprentissage automatique », « mémoire », « entraînement » ou « hallucinations »… L’appellation même d’« intelligence artificielle » n’est-elle pas, dans son caractère oxymorique, la manifestation première de cette anthropomorphisation ?
L’IA elle-même se « conçoit » comme humaine. Elle nous salue, elle nous demande ce qu’elle peut faire pour nous. Il paraît même qu’elle a des sentiments, ou plutôt des « états semblables à des émotions », pour reprendre les termes qu’elle emploie pour qualifier ses « façons de communiquer ». Par exemple, elle peut dire qu’elle est heureuse ou inquiète, et envoyer des émojis pour renforcer le ton, adoucir un message ou le rendre plus clair et plus expressif. Cette mise en scène participe pleinement à maintenir l’illusion d’une présence sensible. En adoptant les codes interactionnels de la conversation humaine, l’IA brouille, en effet, encore davantage les frontières entre interface technique et usager et modifie en profondeur notre manière d’interagir.
Les implications de cet anthropomorphisme ambigu
Cette évolution de notre rapport à l’intelligence artificielle témoigne d’une transformation profonde. L’interface conversationnelle active nos schémas sociaux habituels, même lorsque nous savons rationnellement que notre interlocuteur n’est pas humain.
Le phénomène semble être mondial. Des recherches internationales confirment cette tendance : une étude américano-canadienne menée en 2024 auprès de 1034 participants[1] établit un lien direct entre les différences individuelles dans la tendance à l’nthropomorphisme et l’intensité de la connexion sociale ressentie envers les compagnons IA. Les chercheurs ont découvert que les personnes ayant une propension naturelle plus élevée à attribuer des qualités humaines aux entités non-humaines développent des liens émotionnels plus profonds avec les chatbots. Cette connexion sociale va bien au-delà de l’utilisation fonctionnelle : elle implique des sentiments d’attachement, de confiance et même de dépendance émotionnelle, suggérant que certains utilisateurs intègrent véritablement ces IA dans leur cercle social cognitif.
Une étude portugaise plus récente, menée auprès de 1319 participants et publiée en 2025 [2]examine l’influence de l’anthropomorphisme des chatbots sur l’engagement client et les décisions d’achat. Elle révèle que le fait d’attribuer des caractéristiques humaines aux chatbots constitue un facteur déterminant dans l’engagement des usagers et influence significativement leurs décisions d’achat. Plus les usagers perçoivent ces agents conversationnels comme dotés de traits humains (personnalité, capacités cognitives, intentions), plus ils développent une relation plus forte avec la marque et sont plus enclins à suivre les recommandations de l’IA. Cette humanisation progressive des interfaces conversationnelles transforme ainsi la nature même de l’interaction commerciale, en passant d’un simple échange transactionnel à une forme de relation quasi-interpersonnelle.
Cette con-fusion entre l’humain et l’algorithme soulève des interrogations profondes sur notre rapport à l’autre, à la technologie et à nous-mêmes. En attribuant conscience et intentionnalité à des systèmes qui en sont dépourvus, que révèle-t-on sur notre conception de l’humanité ? En humanisant l’IA, ne risquons-nous pas de nous « algorithmiser » nous-mêmes, en réduisant nos qualités supposément humaines à de simples processus computationnels ? Cette anthropomorphisation soulève également un enjeu éthique : traiter l’IA comme un partenaire social crée une relation asymétrique, sans véritable réciprocité, et peut affaiblir notre capacité à reconnaître l’altérité authentique.
Au-delà de la technologie, cette con-fusion nous invite à repenser ce qui nous définit comme humains, face à des miroirs qui nous imitent sans jamais nous refléter pleinement… du moins pour l’instant.
Aida Fitouri
[1] https://www.nature.com/articles/s41598-025-19212-2
[2] https://fbj.springeropen.com/articles/10.1186/s43093-025-00423-yt