Par Dr Sami Ayari*
« Nous découvrons de nouveaux contournements (“jailbreaks”). Chaque jour, des gens contournent Claude, ils contournent aussi les autres modèles. […] Je suis profondément préoccupé par le fait que, dans deux ou trois ans, nous atteindrons un point où les modèles pourront faire des choses très dangereuses en science, en ingénierie, en biologie. Un contournement pourrait alors être une question de vie ou de mort. » — Dario Amodei, 2023
Racines de lumière : des étudiants des nombres et des lettres
San Francisco, années 1980. Dans le quartier coloré du Mission District, une famille biculturelle grandit entre les senteurs du cuir et les livres d’Isaac Asimov. Elena Engel, américaine et gestionnaire de projets sociaux, élève Dario (né en 1983) et Daniela (née en 1987) avec Riccardo Amodei, artisan maroquinier venu de Toscane. Leur modeste maison vibre de conversations sur l’histoire, la physique, l’éthique, la Shoah, les dieux antiques et l’avenir de l’humanité.
Riccardo est né à Marciana, un village escarpé perché sur l’île d’Elbe, où la Méditerranée semble suspendre le temps. Sa famille, des artisans du cuir depuis trois générations, l’initie jeune aux gestes patients : couper, coudre, façonner, réparer. Ses parents, Paolo et Graziella, l’ont élevé dans une tradition où chaque objet porte la mémoire de ceux qui le créent. Il quitte l’île dans les années 1970 pour s’installer en Californie, où il ouvre un petit atelier. Il ne deviendra pas riche, mais transmet à ses enfants la plus grande des richesses : la rigueur dans l’ouvrage, la beauté du détail, et l’idée que l’éthique est une forme d’art.
Quand Riccardo tombe malade, Dario et Daniela sont encore jeunes. Sa mort, entre 2000 et 2010, scelle leur pacte silencieux : rester ensemble, toujours. Cette blessure devient feu sacré. À Lowell High School, Dario démontre une logique implacable. Les équations deviennent son langage, la physique sa grammaire. Daniela, elle, rêve en littérature, en empathie et en nuances. Ils forment deux visages d’un même regard : la structure et la sensibilité, la rigueur et le lien. Dario poursuit à Caltech, puis Princeton, étudiant les réseaux neuronaux biologiques avant de s’intéresser aux modèles d’IA. Daniela obtient un BA en littérature anglaise à UC Santa Cruz, fascinée par Orwell et Virginia Woolf. Leurs parcours divergent, mais se parlent en sourdine.
Le déclic : l’aube d’un doute fraternel
Ce n’est pas un coup d’éclat. Pas une grande réunion de crise.
C’est une soirée calme, sur un balcon de San Francisco, à l’automne 2020. Dario, alors VP of Research chez OpenAI, vient de rentrer. Les tensions sont déjà palpables. GPT-3 est lancé, les performances sont spectaculaires, mais les biais, les hallucinations, les opacités se multiplient.
Daniela l’attend. Elle a quitté son poste au Center for Security and Emerging Technology, et collabore à OpenAI sur les aspects de sécurité. Ensemble, ils regardent un écran où défilent des réponses étrangement toxiques de GPT. Sexisme déguisé. Justifications racistes. Évasions dangereuses.
Elle lâche :
« On a mis au monde quelque chose qu’on ne contrôle plus. Et personne n’ose le dire. »
Dario ne nie pas. Il soupire. Il connaît les limites du fine-tuning, la faiblesse des red teams. Ce soir-là, ils n’ont pas peur du code. Ils ont peur de ce que l’écosystème est en train de devenir : une course aveugle, obsédée par la performance brute.
Ce n’est pas une prise de conscience technique. C’est une rupture morale. Une fraternité qui se dresse.
Anthropic : un contre-modèle né d’un refus
En janvier 2021, ils quittent OpenAI. Avec Tom Brown, l’un des ingénieurs majeurs de GPT-3, et quelques autres esprits brillants — Jared Kaplan, Chris Olah, Sam McCandlish, Ben Mannils — fondent, Anthropic.
Dario prend les rênes techniques. Daniela, la présidence. Mais le vrai leadership est à deux têtes. Une tension productive. Lui, il veille à la rigueur scientifique. Elle, elle maintient la clarté morale.
« Ce n’est pas une entreprise, c’est une promesse. »
Daniela Amodei
Leur idée ? Créer une IA dont les décisions seraient guidées par une charte éthique intégrée au modèle, pas greffée après coup. Ainsi naît Claude, nommé en hommage à Claude Shannon, père de la théorie de l’information.
Claude ou la naissance d’une IA qui se tient droite
Avec Constitutional AI, ils codent quelque chose d’inédit : un modèle qui s’auto-évalue moralement, non pas à partir de sanctions humaines, mais à partir de principes explicitement formulés (comme la non-violence, l’honnêteté, la dignité humaine).
Claude 1 paraît en 2022. Les observateurs sont sceptiques. L’IA est moins “créative”, moins “grande gueule” que GPT-4. Mais elle résiste aux contournements. Elle refuse de produire des plans de guerre chimique. Elle ne cède pas sous pression.
En 2024, Claude 3.5 surpasse ses concurrents dans la cohérence, la transparence et la sûreté. Anthropic devient une licorne galactique, valorisée à plus de 60 milliards.
Les tempêtes du progrès : résister sans se perdre
Mais les tensions montent, Lightspeed Venture Partners veut plus de rendement.
Amazon, avec ses 4 milliards investis, pousse à l’industrialisation. D’autres startups les rattrapent, plus rapides, moins scrupuleuses.
Et malgré leur succès, une question brûle :
« Peut-on faire de l’éthique un modèle scalable ? »
En mars 2025, des fuites internes remettent en cause la soutenabilité économique de Claude. Les critiques pleuvent. Des journalistes murmurent qu’Anthropic n’est qu’un “Think Tank avec une interface”.
Mais la communauté, elle, s’accroche. Claude a conquis des écrivains, des thérapeutes, des enseignants. Il n’est pas là pour séduire. Il est là pour protéger.
La force d’un lien : l’infrastructure invisible
Ce qui fait tenir Anthropic, ce n’est pas que son architecture cloud ni son corpus de principes. C’est un pacte fraternel, plus fort que les parts ou les pitchs.
Dario et Daniela se connaissent par cœur. Ils savent quand douter, quand s’arrêter. Ils se parlent en silence dans les comités de direction. Ils ne cherchent pas à gagner, ils cherchent à préserver.
« Les autres veulent transformer le monde. Nous, on veut qu’il reste habitable. » Daniela Amodei
L’héritage d’un météore
Ils n’ont pas inventé l’IA. Mais ils ont rappelé qu’elle pouvait être alignée avec l’humanité.
Ils n’ont pas construit la plus grande équipe. Mais ils ont formé une conscience collective autour de l’IA.
Et ce que Claude incarne, ce n’est pas une technologie. C’est une manière d’être au monde. Une manière de coder en ayant en tête la fragilité humaine.
*Cofondateur et coordinateur général du Tunisia CyberShield
Cofondateur et coordinateur général de la Tunisian AI Society