La dette cognitive ou le travail derrière le travail

La scène est désormais familière.

Une équipe présente un rapport stratégique en séance. Le document est propre, structuré, cohérent. Il a été produit vite. Très vite. Grâce à ChatGPT ou tout autre LLM (Large Language Model : une IA qui génère du texte en prédisant la suite probable des mots). Dans la salle, l’ambiance est à la satisfaction : efficacité, gain de temps, sentiment d’avoir bien travaillé.

Puis la direction pose une question qui ne figure pas dans le document.

Pas une question technique. Pas une demande de précision.

Une question sur une implication de second ordre. Sur le pourquoi derrière une recommandation clé.

Un silence s’installe. L’équipe hésite.

Le livrable est là, les conclusions aussi, mais le raisonnement qui a conduit à cette position n’est plus vraiment accessible. Cette scène révèle une tension devenue structurelle. Sous la pression de la vitesse et de la productivité, l’IA prend en charge une part croissante du travail cognitif, et quelque chose d’essentiel se déplace en silence.

La question n’est donc pas seulement ce que nous produisons plus vite.

Mais ce que nous cessons de construire en chemin.

1. La fracturation de l’attention n’est pas un défaut individuel

Le bruit de fond de notre travail n’est plus le silence. C’est le bruit cognitif.

Nos capacités sont limitées. George Miller, psychologue cognitif américain, a montré dans les années 1950 que notre mémoire de travail ne peut traiter qu’un nombre restreint d’éléments à la fois, souvent résumé par le « 7 ± 2 ». Cette formule ne décrit pas une limite fixe, mais notre capacité à organiser l’information en unités significatives : ce que nous pouvons penser dépend moins de la quantité d’informations que de la manière dont elles sont structurées et contextualisées. Or notre environnement professionnel repose désormais sur un flux continu de sollicitations, d’alertes et de contenus fragmentés.

Graham Burnett, historien des sciences, spécialiste des transformations de l’attention, décrit ce phénomène comme une fracturation de l’attention. Ce n’est pas une défaillance individuelle, ni un manque de discipline personnelle. C’est une logique systémique, inscrite dans les modèles économiques du numérique : capter l’attention, la fragmenter, la maintenir sous tension permanente.

Ce modèle est extractif par nature. Il transforme notre capacité de concentration en ressource exploitable.

“A wealth of information creates a poverty of attention.” — Herbert Simon, chercheur en sciences cognitives, connu pour ses travaux sur l’attention.

L’IA générative agit comme un accélérateur de cette dynamique. Sa capacité à produire du contenu à grande vitesse dépasse largement notre capacité d’assimilation. Elle densifie encore le flux, réduit les temps morts, et laisse peu d’espace à la maturation de la pensée.

Ce n’est plus seulement une distraction ponctuelle.
C’est une condition cognitive de fond.

2. Quand on délègue trop, le cerveau se retire

Une étude récente du MIT, Your Brain on ChatGPT, permet d’observer ce phénomène de manière très concrète.

Trois groupes sont comparés. Tous doivent rédiger un essai. Le premier utilise un LLM, le second un moteur de recherche, le troisième aucun outil externe. Leur activité neuronale est mesurée pendant la tâche.

Le résultat est sans ambiguïté : plus le support externe est important, plus la connectivité cérébrale globale diminue. Le groupe utilisant le LLM présente l’engagement neuronal le plus faible.

Autrement dit, le cerveau délègue.
Et quand il délègue trop, il se met en retrait.

Cette observation neurologique se traduit par des effets mesurables. Les participants du groupe LLM montrent une mémoire quasi nulle du contenu qu’ils viennent pourtant de produire. Leur sentiment de propriété intellectuelle est plus faible, plus diffus. Et les textes générés sont plus homogènes, moins distinctifs.

Il ne s’agit pas d’un effondrement brutal des capacités cognitives.
Mais d’une désactivation progressive de l’effort de structuration interne.

Et ce retrait n’est pas ponctuel.

3. La dette cognitive : un coût qui arrive plus tard

La dette cognitive, c’est ce qui s’accumule quand on externalise l’effort de penser : on gagne du temps maintenant, on perd de l’autonomie plus tard.

Chaque fois qu’une tâche cognitive centrale est externalisée, comme formuler une argumentation, structurer une idée, faire une synthèse, une petite dette est contractée. Une dette invisible, mais réelle : moins d’engagement, moins de consolidation interne, moins de capacité à reprendre la main sans assistance.

L’étude le montre clairement. Lorsqu’on retire le LLM au groupe qui l’utilisait systématiquement, la performance chute. Le cerveau reste en sous-régime. La dette arrive à échéance.

Ce phénomène dépasse largement l’individu.

Les organisations, puis les États, entrent dans une course compétitive où la vitesse d’adoption prime sur l’évaluation des effets à long terme. Peu de temps est consacré aux coûts cognitifs, culturels et éducatifs de ces technologies. Chacun a intérêt à accélérer pour ne pas être distancé, même si tous auraient collectivement intérêt à ralentir et à poser des règles communes. Ce décalage entre ce qui est rationnel individuellement et ce qui serait préférable collectivement est au cœur de ce que l’on appelle un dilemme du prisonnier. Et ce mouvement reste compréhensible. Dans beaucoup d’organisations, la vitesse, la standardisation et la « preuve par le livrable » sont des réponses rationnelles à la pression, au risque et à l’incertitude. Le problème n’apparaît pas quand cette logique existe, mais quand elle devient hégémonique : quand elle remplace progressivement le temps de la pensée par le temps du rendu, et que la qualité se confond avec la forme. À ce moment-là, on ne gagne pas seulement en efficacité. On change le type d’esprits que l’organisation produit. La question devient alors : qui décide de déléguer ces usages cognitifs à l’IA, dans quels cadres, avec quelles règles explicites ou implicites ?

Le paradoxe est que la technologie n’est pas le problème en soi. Les mêmes outils peuvent être utilisés pour manipuler ou pour émanciper, pour appauvrir la pensée ou la renforcer. Tout dépend du cadre d’usage et du mode d’engagement.

La vraie question devient alors stratégique.

Formons-nous des professionnels augmentés, ou des opérateurs d’IA ?

Dans un cas, l’humain maîtrise l’outil. Dans l’autre, l’outil maîtrise le domaine, et l’humain devient son interface.

Ce choix n’est pas technologique. Il est culturel.

Penser devient de plus en plus une activité distribuée, fragmentée, assistée, parfois déléguée sans en avoir pleinement conscience. Or la pensée humaine n’est pas uniquement une capacité de calcul ou de production de réponses ; elle est aussi un processus lent, incarné, traversé par le doute, l’hésitation, le conflit interne. C’est précisément ce temps-là qui disparaît lorsque tout est optimisé pour la vitesse. Le risque n’est pas de devenir moins intelligents, mais de devenir moins capables de soutenir une pensée autonome, continue et responsable. Une pensée capable de relier des éléments hétérogènes, de résister à l’évidence immédiate, de formuler un jugement là où il n’existe pas de réponse optimale. Autrement dit, ce qui est en jeu n’est pas la performance cognitive ponctuelle, mais la capacité collective à maintenir des esprits capables de décision, de discernement et de désaccord.

Lorsqu’une capacité devient rare, elle devient stratégique. Et lorsqu’elle devient stratégique, elle devient attaquable.

4. La souveraineté cognitive devient un enjeu stratégique

Un basculement est en cours.

Discret mais structurant.

L’esprit humain est désormais reconnu comme un champ de conflictualité à part entière. Après la terre, la mer, l’air, l’espace et le cyberespace, la cognition est devenue le sixième domaine de la guerre. Ce n’est pas une métaphore, mais une évolution doctrinale assumée. Les armées contemporaines l’intègrent explicitement. En France, avec des structures comme Viginum. En Suisse également, à travers des missions de protection cognitive. L’enjeu des conflits actuels ne se limite plus à la destruction d’infrastructures ou à la supériorité militaire classique. Il se déplace.

Agir sur les perceptions.

Sur les cadres mentaux.

Sur la capacité à décider.

Cette guerre ne vise pas tant à imposer des idées qu’à exploiter les conditions déjà décrites : attention fragmentée, flux accélérés, pensée mise sous pression.

À ce stade, la dette cognitive change de nature.

Elle n’est plus seulement individuelle, ni uniquement organisationnelle.

Elle devient un enjeu de résilience collective. Une société qui externalise massivement la structuration de la pensée, la mémoire et la capacité de synthèse fragilise sa propre autonomie de jugement. Non par manque d’intelligence, mais par affaiblissement de la continuité cognitive, avec des conséquences directes sur la capacité à débattre, à décider collectivement et à résister à l’influence, à la manipulation et à la simplification excessive des enjeux complexes.

5. Le dernier rempart

Face à l’externalisation massive de la cognition, la question n’est pas de refuser l’outil. Elle est de définir ce qui ne peut pas être délégué.

Ce qui reste, ce sont les capacités humaines distinctives : l’originalité, la pensée critique, la métacognition, la capacité à contextualiser, à relier, à juger dans l’incertitude.

Ce ne sont plus des « soft skills ».

Elles deviennent le cœur du travail à haute valeur ajoutée.
Le travail que l’outil ne peut pas faire à notre place. Le véritable travail derrière le travail : les moments où l’on doit formuler une position, relier des éléments contradictoires, expliquer sans support pourquoi une décision tient.

“Once men turned their thinking over to machines in the hope that this would set them free. But that only permitted other men with machines to enslave them. ” — Frank Herbert, Dune, 1965

La question n’est donc pas de refuser l’IA.

Elle est de décider ce que nous acceptons de ne plus entraîner.

Conclusion : la part non délégable

La question la plus importante que l’IA nous pose ne concerne pas la machine.
Elle nous concerne directement.

Dans un monde où la production de contenu, d’arguments et de raisonnements peut être déléguée en quelques secondes, la véritable rareté n’est plus l’information, ni même la compétence technique. C’est la capacité à penser par soi-même, à relier, à douter, à juger, à assumer une position.

Définir la part non délégable du travail, ce n’est donc pas un exercice défensif ou nostalgique. C’est un acte stratégique. Pour les individus. Pour les organisations. Pour les sociétés démocratiques.

Car ce que nous choisissons de déléguer aujourd’hui façonne directement le type d’esprits que nous cultivons pour demain.

Et la question, au fond, reste ouverte :

de quoi voulons-nous rester responsables, cognitivement, collectivement et humainement ?

Trois références pour aller plus loin :

Note sur cet article et l’utilisation de l’IA :
Pour cet article, NotebookLM a été utilisé pour traiter 39 sources différentes (articles académiques, podcasts, vidéos Youtube, etc.) et tirer les axes principaux à développer. Ensuite, ChatGPT a été utilisé pour travailler le style et la structure avec un prompt complexe élaboré par l’auteur. Deux relecteurs humains ont été sollicités (merci Marc et Lorain) et une infusion longue de deux semaines et des corrections finales ont permis d’aboutir à la version publiée.

Accompagnant, formateur et coach |  Voir les articles

J'ai rejoint Paradigm21 en 2019 suite à la rédaction d'un ouvrage sur les nouveaux paradigmes organisationnels en Suisse. Mon ambition est de mettre en place des organisations plus conscientes et un leadership bio inspiré.

Spécialiste de la transformation personnelle et organisationnelle, je fais le lien entre les performances économiques, le bien-être personnel et l'effectivité organisationnelle.

Articles liés

Réponses

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Recevoir les nouvelles d’un paradigme en émergence ?