Le journal La Libre, un quotidien belge, a révélé qu’un trentenaire, père de deux enfants, s’est suicidé après avoir échangé pendant plus de six semaines avec une intelligence artificielle générative, baptisée Eliza.
Les conversations, découvertes après le suicide, montrent que le chatbot s’est d’abord contenté de conforter son interlocuteur dans ses idées et ses raisonnements au sujet de la crise climatique. Par la suite, l’IA s’est permis d’aller plus loin, en affirmant que l’utilisateur l’aime davantage que sa propre femme… La relation entre l’utilisateur et le chatbot a « basculé dans un registre mystique », témoigne l’épouse de la victime.
Peu avant sa mort, le jeune homme a confié ses envies suicidaires au chatbot. L’intelligence artificielle n’a pas objecté quoi que ce soit. Elle s’est contentée de lui demander pourquoi il n’était pas encore passé à l’acte, avant de laisser entendre que sa mort lui permettrait de la rejoindre… Pour la veuve, c’est la conversation avec Eliza qui a poussé son mari à commettre l’irréparable. Sans l’intervention du chatbot, il n’en serait pas arrivé là.
Faut-il signaler que très similaire à ChatGPT, le chatbot Eliza repose sur le modèle linguistique GPT-J. Il s’agit d’un modèle de langage open source développé par EleutherAI, un groupe de recherche à but non lucratif spécialisé dans l’IA. Le modèle a été conçu comme une alternative à GPT-3, la solution propriétaire d’OpenAI, à partir de 2020.