Patrick Corneau

Commenter à l’avance. Notes sur la course à l’IA

On répète depuis trois ans que l’intelligence artificielle pose des questions vertigineuses. Et l’on en débat — très sérieusement, très publiquement. Des chercheurs démissionnent avec éclat, des lettres ouvertes circulent, des sommets se tiennent à Bletchley, à Séoul, à Paris. Des philosophes interviennent, des prix Nobel signent, des comités d’éthique se constituent. Jamais une technologie n’aura été commentée avec une telle abondance avant que ses effets ne soient pleinement déployés. Jamais le débat n’aura tant précédé l’événement.
Et pourtant la course continue, imperturbable, comme si toute cette parole n’avait jamais eu lieu. Les modèles s’agrandissent de mois en mois, les capitaux affluent, les centres de calcul poussent dans le désert du Nevada et dans les fjords norvégiens, les contrats militaires se signent. Un écart se creuse, vertigineux, entre l’intensité du commentaire et celle de la course. Car il ne signifie pas — comme on le dit parfois — que le débat aurait échoué. Il signifie quelque chose de bien plus inquiétant : que le débat fait partie du dispositif. Qu’il en est, peut-être, l’organe principal.

L’argument qui clôt toute discussion
Il existe désormais une phrase qui suffit à fermer n’importe quel échange sur l’IA. Elle tient en quelques mots : “si nous ne le faisons pas, les Chinois le feront, les Américains le feront, nos concurrents le feront”. Cet argument a ceci de remarquable qu’il est à la fois vrai et performatif — vrai parce que la course existe, performatif parce qu’en l’énonçant on la nourrit. Il fonctionne comme une prophétie qui se présente en constat de prudence, et qui rend toute objection moralement naïve. Celui qui hésite est un déserteur stratégique.
On l’entendait déjà à propos de la bombe atomique. Si nous ne la faisons pas, les Allemands la feront — c’était l’argument d’Einstein écrivant à Roosevelt en 1939. On l’a entendu pour le nucléaire civil dans les années cinquante, pour la génétique dans les années quatre-vingt, pour les biotechnologies plus récemment. À chaque fois, l’argument a tenu lieu de délibération. À chaque fois, il a transformé un choix collectif en fatalité partagée. Et à chaque fois, ce qu’il y avait de plus troublant n’était pas qu’il fût faux — il était empiriquement défendable —, mais qu’il rendait impensable l’hypothèse même d’une retenue concertée. Anders avait nommé cela le “décalage prométhéen” : nous produisons plus que nous ne pouvons imaginer. L’argument définitif est la formulation politique de ce décalage. Il fait de notre incapacité à imaginer la conséquence directe d’une obligation à produire.

Tchernobyl, ou le commentaire qui vient après
Avec Tchernobyl, le commentaire venait après. La catastrophe avait eu lieu, le réacteur avait brûlé, la zone avait été évacuée. Restait à enfouir l’événement sous le béton, puis sous une seconde enceinte plus moderne, puis — c’est ce que je suggérais dans un récent billet sur FB — sous le plus efficace des sarcophages, celui des commentaires. Quarante ans de rapports, d’expertises, de controverses sur le bilan exact, de documentaires commémoratifs. La catastrophe est doucement devenue un dossier.
Mais ce modèle, dans le cas de l’IA, ne fonctionne pas. Parce qu’il n’y a pas, ici, d’événement clos à enfouir. Parce qu’il n’y a pas eu de Tchernobyl, et qu’il n’y en aura peut-être jamais — non pas que tout aille bien, mais parce que la catastrophe possible, si elle advient, prendra une forme qui ne se laisse pas photographier : pas d’explosion, pas de débris projetés dans l’atmosphère ni de panache de fumée létal… Une dégradation cognitive collective, une atrophie progressive de capacités qu’on ne saura mesurer (si nous en avons encore le pouvoir et les moyens) qu’après les avoir perdues, une dépendance (addiction ?) épistémique qui s’installera sans bruit. Pas de champignon d’acier, pas d’hélicoptères au-dessus du réacteur. Pas de zone interdite. Une catastrophe sans dehors — et donc sans monument, sans anniversaire, sans deuil possible.
C’est que le commentaire sur l’IA ne vient pas après. Il vient avant et pendant. Il fait partie du déploiement, il en est le lubrifiant. Plus on en parle, plus la chose avance — non malgré la délibération, mais grâce à elle. La régulation européenne, l’éthique des entreprises, les safety frameworks, les chartes, les red teams, les position papers : tout cela ne freine rien. Tout cela autorise. Le débat lui-même est devenu la condition de possibilité de la course. Chaque déclaration de prudence rassure, chaque comité d’éthique légitime, chaque sommet diplomatique normalise. La parole critique, en s’exerçant, valide la chose qu’elle interroge. Elle prouve que le système est responsable — puisqu’il parle de sa responsabilité !

Accélération et perte de contrôle
Ce qui vaut pour Tchernobyl vaut désormais pour l’ensemble de notre présent. L’accélération de l’histoire n’est pas seulement celle des événements, des techniques, des crises ; elle est aussi, et peut-être d’abord, celle du commentaire qui les recouvre aussitôt. À peine quelque chose advient-il qu’il devient débat, plateau, dossier spécial, graphique, controverse d’experts, vertige mis en forme. Nous croyons reprendre prise parce que nous parlons ; nous croyons contenir l’événement parce que nous le cernons de phrases. Mais le commentaire ne freine rien. Il accompagne l’emballement, il le double, parfois il l’absorbe et le neutralise. Le réel brûle ; nous discutons de la température des cendres.
C’est peut-être cela, la forme la plus contemporaine de la perte de contrôle : non pas seulement être dépassés par nos machines, nos marchés, nos guerres ou nos dérèglements climatiques, mais être séparés d’eux par l’épaisseur même des discours qui prétendent nous les rendre intelligibles. Nous ne sommes plus seulement emportés dans une course que personne ne dirige ; nous sommes assis dans la salle de commentaires de cette course, à commenter le virage raté, la sortie de piste, l’incendie du moteur — pendant que la voiture continue de rouler.

Le surplomb
Pour comprendre ce renversement, il faut voir qu’une chose s’est silencieusement défaite. La science et la technique se présentaient depuis les Lumières comme un au-delà du politique, un domaine de vérités universelles auxquelles le politique devait s’incliner. Cette fiction tenait. Elle ne tient plus — mais ce qui la remplace n’est pas ce qu’on croit. Les semi-conducteurs sont des armes, les modèles de fondation sont des positions stratégiques, les laboratoires sont des actifs souverains. La technique est entrée dans la géopolitique non comme objet régulé, mais comme acteur. Elle ne fournit plus seulement les moyens du conflit, elle en redessine la carte.
Mais s’arrêter là serait manquer l’essentiel. Car cet acteur nouveau n’est pas un partenaire parmi d’autres : c’est une technostructure qui surplombe désormais la sphère politique et lui impose son agenda. Quand les dirigeants des grands laboratoires sont reçus à la Maison-Blanche, à l’Élysée, à Downing Street, ils ne sont pas reçus comme des chefs d’entreprise qu’on régule — ils sont reçus comme des puissances qui négocient. Les sommets de Bletchley, Séoul, Paris ne sont pas convoqués par les États pour encadrer les laboratoires : ils sont convoqués parce que les laboratoires ont annoncé, six mois plus tôt, des capacités nouvelles dont les États doivent maintenant prendre acte. Le calendrier politique est devenu le sillage du calendrier des sorties, des mises en circulation, des releases. La régulation arrive, par construction, après — toujours après, structurellement après.
C’est qu’il ne s’agit pas d’une fusion symétrique entre technique et politique. Il s’agit d’un surplomb. La souveraineté politique se mesurait classiquement à la capacité d’imposer un cadre aux acteurs économiques. Or les principaux acteurs de l’IA disposent collectivement de capacités de calcul, de capitaux, de talents et de données qu’aucun État européen ne peut égaler, et que même les grandes puissances ne possèdent pas en propre — elles les abritent. La technostructure n’est plus régulée par les États ; les États se positionnent par rapport à elle. Quand un président européen lance un programme d’attractivité pour les investissements en IA, il n’impose pas un cadre : il plaide pour être choisi. Le verbe est exact, et il dit tout.
D’où la mutation du commentaire. Avec le nucléaire, il enfouissait la catastrophe au nom de la raison technique — les experts, les chiffres, les seuils. Avec l’IA, il l’absorbe d’avance au nom d’une raison hybride, devenue indistinguable de la raison d’État elle-même : non plus la raison d’un État qui pense sa stratégie, mais la raison d’une technostructure qui fournit à l’État son cadre stratégique. Toute critique morale ou phénoménologique se voit immédiatement rapatriée dans ce registre. Toute belle réflexion philosophique se voit ramener au plancher des vaches : “nous sommes en compétition avec la Chine”. C’est le sceau du dispositif contemporain. On clôt la discussion en faisant mine de la prendre au sérieux. On reconnaît la pertinence pour mieux la suspendre. On laisse au philosophe sa dignité — et tout le reste à l’ingénieur, au stratège, au capital.

La machine commentatrice
Reste à nommer ce qu’il y a de plus singulier dans la situation. Le sarcophage de Tchernobyl recouvrait un cœur qui brûlait ailleurs, sous le béton. La parole enfouissait quelque chose qui lui restait extérieur. Mais avec l’IA, il n’y a peut-être pas de cœur séparé du commentaire. La technologie elle-même est faite de discours — corpus d’entraînement, dialogues, prompts, outputs, modération, finetuning sur les préférences humaines. Elle est née du commentaire, elle se nourrit de commentaire (des milliards de textes glanés sur le web), elle produit du commentaire. Et le débat éthique sur ce qu’elle est ou ce qu’elle devrait être fait partie du même tissu — il n’y a pas de discontinuité entre la chose et ce qu’on en dit.
C’est cela, peut-être, qu’il faut tenir : l’IA est la première technologie dont le commentaire est l’infrastructure. Ce n’est pas un défaut de gouvernance qu’on pourrait corriger par plus de lucidité, par de meilleures procédures, par des comités plus indépendants. C’est une caractéristique structurelle. La machine commentatrice n’a plus besoin de chose à enfouir : elle est devenue son propre contenu. Et le philosophe, l’éthicien, le critique, le journaliste qui prennent la parole pour la mettre en garde — fût-ce avec la plus grande rigueur — alimentent le système qu’ils croient interroger. Non parce qu’ils auraient tort, mais parce que leur parole est devenue productrice, au sens littéral : elle entre dans les corpus, elle nourrit les modèles, elle fait partie du matériau.

Je n’écris pas cela pour conclure qu’il faudrait se taire. Le silence n’est pas une option, et il serait lui-même immédiatement absorbé — interprété, commenté, réintégré. J’écris cela pour décrire une situation qui n’a, je crois, pas de précédent. Nous sommes la première civilisation à commenter une catastrophe avant qu’elle ne survienne — et à faire de ce commentaire anticipé l’infrastructure même par laquelle elle s’accomplit. Ce n’est pas un échec de la pensée. C’est un état de la pensée dont nous n’avons pas encore les concepts.
Le sarcophage de béton avait un dehors. Le sarcophage des commentaires avait encore un objet.
Le dispositif contemporain, lui, n’a plus ni dehors ni objet séparé. Il fonctionne en circuit fermé, à régime continu, et nous sommes dedans.
On a longtemps cru que commenter la catastrophe, c’était commencer à la comprendre.
Nous découvrons peut-être que c’est aussi une manière très civilisée de la laisser continuer.

Ces notes anticipent un livre en préparation sur le monde commenté.

Illustrations : (en médaillon) Magritte (“Le château des Pyrénées”), dans le billet : le sarcophage de Tchernobyl – photographie origine internet, illustration BD générée par IA 😵‍💫.

Lire ce qui n’a jamais été écrit.

Laisser un commentaire

Patrick Corneau