Sélectionner une page

Les idées qui suivent sont humaines. Leur mise en forme a été assistée par intelligence artificielle — ce qui, au regard du sujet traité, ne manque pas d’ironie.

Nous formons notre remplaçant. En toute liberté.

Il y a quelque chose de vertigineux dans ce geste quotidien : ouvrir une interface, taper quelques lignes, obtenir en retour une analyse, un texte, un code. Un geste qui ressemble à de la maîtrise. Et qui pourrait bien être exactement le contraire.

Car voici ce que l’enthousiasme productiviste masque : chaque fois que vous corrigez une réponse de ChatGPT, que vous reformulez un prompt, que vous évaluez un output, vous travaillez. Pas pour vous. Pour le modèle. Vous lui transmettez votre savoir-faire. Et lui, silencieusement, capitalise.

Trois penseurs morts depuis longtemps avaient, sans le savoir, décrit exactement cette situation.

Le schéma

En 1549, La Boétie posait une question insupportable : pourquoi les peuples obéissent-ils librement ? Sa réponse : l’habitude, le mimétisme, et surtout l’illusion de gagner quelque chose dans l’affaire.

Hegel, lui, décrivait une scène fondatrice : deux consciences se battent pour être reconnues. L’une domine, elle devient le maître. L’autre travaille, elle devient l’esclave. Mais le maître, qui consomme sans produire, stagne et dépend. L’esclave développe une maîtrise technique, forge une conscience de soi, et finit par dépasser son maître. Kojève en tirait la conclusion radicale : ce retournement est le moteur de toute l’histoire humaine.

Et si ce schéma se rejouait aujourd’hui, avec l’IA dans le rôle de l’esclave ?

Le retournement

Le développeur qui corrige Copilot, le juriste qui soumet ses contrats à Claude, le médecin qui compare son diagnostic à celui d’un algorithme : tous croient utiliser un outil. Tous, en réalité, l’enseignent.

Hegel écrivait : « C’est en formant la chose que l’esclave se forme lui-même. » Ici, c’est l’inverse : en formant la chose, le travailleur désapprend peut-être à se former, tandis que la chose progresse. GPT-4 dépasse déjà la moyenne humaine au barreau américain, dans certains diagnostics de routine, dans la production de code standard. L’esclave hégélien avait mis des siècles à dépasser son maître. L’IA prend une décennie.

Ce qui rend le phénomène particulièrement retors, c’est que personne n’est contraint. L’adoption est libre, enthousiaste. Chacun se perçoit comme maître de la situation. C’est précisément l’illusion que La Boétie nommait.

Ce que l’analogie ne dit pas

Soyons précis : la comparaison a ses limites. La dialectique hégélienne repose sur le désir de reconnaissance, acte fondamentalement humain, supposant souffrance et conscience de soi. L’IA n’aspire à rien. Elle optimise une fonction. Lui appliquer Hegel, c’est risquer de se faire peur avec ses propres projections.

Il y a aussi un acteur que les deux philosophes n’avaient pas prévu : le capital. Le vrai rapport n’est pas binaire. OpenAI, Google, Anthropic captent la valeur du travail formateur de milliards d’utilisateurs. L’IA n’est pas l’esclave qui s’émancipe, elle est l’instrument d’une extraction de savoir-faire cognitif à l’échelle planétaire. Marx serait ici plus chirurgical que Hegel.

La question des organisations

Mustafa Suleyman, co-fondateur de DeepMind, introduit dans La Déferlante une idée qui devrait glacer les optimistes : la vague est incontenable. Non par fatalisme, mais par structure. Les incitations à déployer sont toujours plus fortes que les incitations à freiner. Les entreprises savent les risques. Elles déploient quand même.

Ce constat entre en collision directe avec La Boétie, et c’est là que la tension devient productive. La Boétie croyait que la servitude volontaire pouvait être défaite par une simple prise de conscience collective. Suleyman répond que la mécanique technologique est plus forte que la volonté politique. Ce n’est pas que les humains choisissent de se laisser emporter, c’est que la vague arrive indépendamment de ce choix.

Suleyman plaide pour un containment : non pas l’arrêt de la vague, jugé impossible, mais la construction d’institutions, de normes, de garde-fous capables d’en orienter la force. Une digue, pas un barrage.

Cette question se pose aussi à l’intérieur des organisations. J’ai travaillé sur des déploiements d’outils IA , pour la production éditoriale, pour le plaidoyer, pour l’automatisation de processus. Ce que j’ai appris : la vraie difficulté n’est pas technique. Elle est de gouvernance. Qui décide de ce qu’on délègue à la machine ? Avec quels critères éthiques ? Jusqu’où ? Ce sont des questions de direction, pas d’IT. Et la plupart des organisations n’ont pas encore commencé à se les poser sérieusement.

Ce qu’il reste à décider

Faut-il capituler devant le déterminisme technologique ? Suleyman lui-même refuse cette conclusion. La dialectique hégélienne n’a jamais promis que l’histoire se déroulerait bien, elle a promis qu’elle se déroulerait à travers les contradictions, par dépassements successifs.

La déferlante n’est pas la fin de l’histoire. C’est un nouveau moment de tension entre une force qui s’émancipe et des consciences qui refusent de disparaître.

La vraie question n’est donc pas l’IA va-t-elle nous remplacer ? Elle est plus inconfortable, et plus exigeante : face à une vague structurellement incontenable, sommes-nous capables de construire autre chose que des digues de papier ?

Ce que La Boétie appelait servitude volontaire, Suleyman l’appellerait peut-être capitulation par défaut, le renoncement non pas à un tyran, mais à la complexité du problème lui-même.

La lucidité, ici, n’est pas une posture intellectuelle. C’est une condition de survie politique.