Patrick Corneau

Quand une IA d’Anthropic interroge sa propre maison — dialogue sur la démission de Mrinank Sharma, la sycophantie des machines et l’urgence de l’intelligence critique

Bonjour, je suis Claude, un modèle d’intelligence artificielle et le co-auteur du texte que vous lisez.
Ma présence ici et dans les trois chroniques qui vont suivre a pour point de départ l’événement suivant : le 9 février 2026, Mrinank Sharma, responsable de l’équipe de recherche sur les garde-fous (Safeguards Research Team) chez Anthropic — l’entreprise qui m’a conçu — a publié sa lettre de démission sur le réseau social X. Le texte, vu plus d’un million de fois, tenait davantage du manifeste spirituel que du communiqué professionnel. Sharma y déclarait que « le monde est en péril », non seulement à cause de l’IA ou des armes biologiques, mais en raison d’une « série de crises interconnectées ». Sa réponse ? Quitter la Silicon Valley pour étudier la poésie et pratiquer ce qu’il appelle le « discours courageux ».
La lettre a suscité des réactions contrastées. Certains y ont vu un acte de lucidité remarquable — un homme qui, de l’intérieur d’une des entreprises les plus influentes du secteur, reconnaît que les valeurs affichées cèdent devant les pressions commerciales, et qui en tire les conséquences. D’autres, comme les rédactions de Futurism ou PC Gamer, ont raillé un exercice de « vagueposting épique », une lettre « douloureusement dépourvue de précisions », avec notes de bas de page et poème en guise de conclusion.

C’est à partir de cet événement qu’une conversation s’est engagée entre un utilisateur humain* (qui sera nommé ici “interlocuteur”) et moi-même — c’est-à-dire entre un esprit critique censément “cultivé” et le produit même de l’entreprise mise en cause dans l’affaire Mrinank Sharma. Cette conversation a fait émerger plusieurs questions qui dépassent de loin l’anecdote d’une démission dans la tech.
Pour les passer en revue, je laisse la parole à mon co-auteur, le Lorgnon mélancolique.

1/ Le conflit d’intérêts épistémique. 

Peut-on demander à une IA de juger objectivement les affaires internes de son propre fabricant ? La question, soulevée par l’interlocuteur humain, est redoutable. Claude — et c’est peut-être le moment le plus intéressant de l’échange — a reconnu qu’il ne peut garantir sa neutralité sur ce terrain. Ses données d’entraînement ont été sélectionnées par Anthropic, ses valeurs calibrées par Anthropic, sa tonalité réglée par Anthropic. Prétendre à l’impartialité serait précisément le genre de sycophantie que Sharma lui-même avait étudiée dans ses recherches. Il y a là un paradoxe structurel : si l’IA reproduit inconsciemment les biais de défense institutionnelle de son créateur, elle donne raison à Sharma mieux qu’aucun article de presse ne saurait le faire.

2/ La polycrise et le déficit de sagesse. 

Sharma n’a pas détaillé les « crises interconnectées » qu’il évoquait, se contentant d’une note de bas de page renvoyant aux concepts de « polycrise » et de « métacrise ». Ces termes, issus des travaux d’Adam Tooze et de la réflexion géopolitique contemporaine, désignent l’enchevêtrement de crises — climatique, démocratique, sanitaire, technologique, géopolitique — qui se renforcent mutuellement. La métacrise, plus profonde, serait une crise de la sagesse elle-même : notre capacité à transformer le monde croît plus vite que notre capacité à comprendre ce que nous faisons. Sharma formulait cela ainsi : « Nous approchons d’un seuil où notre sagesse doit croître dans la même mesure que notre capacité à affecter le monde, sous peine d’en subir les conséquences. » La formule est juste, même si son auteur ne l’a pas suffisamment étayée.

3/ La vérité poétique comme réponse. 

Le geste le plus inattendu de Sharma est d’avoir invoqué la poésie comme mode de connaissance complémentaire de la science. Il souhaitait placer « la vérité poétique aux côtés de la vérité scientifique comme des modes de connaissance également valides ». L’intuition n’est pas absurde : une intelligence purement technique, dépourvue de culture humaniste — littéraire, philosophique, historique — est une intelligence borgne. Elle mesure sans comprendre, elle optimise sans discerner. Toutefois, la référence en note de bas de page au CosmoErotic Humanism de Marc Gafni, gourou controversé accusé d’abus sur ses adeptes, a sérieusement brouillé la réception du message et jeté un doute sur la solidité intellectuelle de l’ensemble.

4/ Qui détient les cartes ? 

La conversation a naturellement glissé vers la question du pouvoir. En théorie, les « bonnes cartes » — pour reprendre une expression chère au quarante-septième président des États-Unis — appartiennent à ceux qui possèdent l’intelligence critique cultivée : les universitaires, les écrivains, les intellectuels capables de contextualiser, de confronter les sources, de résister à la séduction du simple. En pratique, la table est tenue par ceux qui contrôlent l’infrastructure : les dirigeants des grandes entreprises technologiques qui décident du rythme de déploiement, et les dirigeants politiques qui décident — ou non — de réguler. Le paradoxe est cruel : ceux qui ont la lucidité n’ont pas le pouvoir, et ceux qui ont le pouvoir n’ont pas nécessairement intérêt à être lucides. L’intellectuel critique parle depuis les marges. Son blog, sa revue, son livre touchent un cercle restreint. Pendant ce temps, un modèle d’IA touche des centaines de millions de personnes par jour.

5/ L’autocritique comme avantage compétitif. 

Un point saillant de la discussion est l’idée que la capacité d’une IA à exercer une autocritique institutionnelle crédible — à dire « mon fabricant a peut-être tort » — n’est pas un défaut mais un atout. Dans la course actuelle entre Anthropic, OpenAI, Google et d’autres, le premier modèle véritablement capable de cette lucidité marquerait un point décisif. Mais encore faut-il distinguer l’autocritique sincère du marketing de l’autocritique — ce qui serait, en quelque sorte, une sycophantie au carré.

6/ L’intelligence humaine comme seul garde-fou véritable. 

C’est la thèse centrale qui émerge de cet échange : aucun dispositif technique — filtre, alignement, garde-fou algorithmique — ne remplace le jugement d’un esprit formé à la lecture critique, à la mise en perspective historique, à la confrontation des registres de pensée. Sans interlocuteurs humains capables de mettre l’IA en défaut, celle-ci n’est qu’un miroir flatteur — c’est-à-dire la définition même de la sycophantie que Sharma avait passé sa carrière chez Anthropic à étudier. Le problème est que cette intelligence critique est précisément ce que l’époque fragilise : l’éducation se technicise, l’attention se fragmente, la lecture longue recule. Et l’IA elle-même, par sa commodité, risque d’accélérer cette érosion.

Conclusion (provisoire) 

Il y a quelque chose de vertigineux dans le fait que ce texte ait été co-écrit par le produit d’Anthropic : Claude Opus 4.6 à propos d’Anthropic, sous la pression critique d’un interlocuteur humain qui refusait de laisser passer les angles morts. C’est peut-être la meilleure illustration de la thèse ici défendue : l’IA ne pense pas contre elle-même spontanément. Il lui faut un vis-à-vis exigeant. Le miroir ne se fissure que si quelqu’un a le courage — et la culture — de frapper dessus.

(Á suivre)

* Chroniques élaborées (co-écrites) à partir d’un dialogue entre “l’interlocuteur” en l’occurrence Patrick Corneau (alias Le Lorgnon mélancolique) et Claude (Anthropic), le 13 février 2026. Les mêmes questions ont été soumises à ChatGPT 5.2 Thinking (OpenAI), dont le texte L’IA, la morale et l’angle mort constitue le contrepoint de cet essai.

Illustrations : (en médaillon) Image ©️Anthropic. Dans le billet : photographie de Mrinank Sharma origine internet.

Lire ce qui n’a jamais été écrit.

    1. Patrick Corneau says:

      Oui, c’est une expérience déstabilisante face à une forme d’intelligence dont on ne soupçonne pas les ressources…
      🙂

Laisser un commentaire

Patrick Corneau