Faire face à l’IA

Quand la technologie révèle notre manière de décider – et déplace silencieusement notre discernement

Introduction — Faire face à quoi, exactement ?

« Le système est conçu comme ça. »

Combien de fois avez-vous entendu cette phrase ? Vous voulez effectuer une démarche administrative, modifier une réservation, poser une question qui sort du cadre prévu — et le système vous renvoie à ses propres règles, sans possibilité de discussion.

Avec l’intelligence artificielle, cette logique franchit un seuil supplémentaire. Ce ne sont plus seulement des parcours figés, mais des arbitrages produits par des systèmes qui transforment des critères et des données en propositions.

Ces critères et ces données ne sont jamais neutres. Ils sont souvent hérités de choix antérieurs, parfois biaisés, le plus souvent invisibles.
Les résultats qui en émergent donnent alors l’impression d’une évidence : des réponses qui semblent objectives, vraies, neutres, voire incontournables — alors qu’il ne s’agit que de propositions statistiquement plausibles.

L’IA n’« automatise » pas la décision au sens strict.
Mais elle pré-oriente puissamment ce qui apparaît comme raisonnable, prioritaire ou acceptable, bien avant que le moment du choix explicite n’advienne.

Comme l’a montré Éric Sadin, l’IA ne se limite pas à automatiser des tâches : elle s’insinue dans les gestes ordinaires et participe à l’émergence d’un nouvel ethos, orientant nos manières de percevoir, d’évaluer et de décider.

L’IA est partout : dans les discours stratégiques, les comités de direction, les promesses de productivité. Elle est souvent présentée comme un levier incontournable — gagner du temps, automatiser, optimiser, décider plus vite.

Mais derrière la technologie, c’est autre chose qui se joue.

L’IA agit comme un révélateur systémique : elle met en lumière la manière dont nous décidons, dont nous exerçons le pouvoir, dont nous répartissons la responsabilité. Elle nous oblige à regarder nos propres modes de fonctionnement — y compris ce que nous préférons ne plus voir.

Une question mal posée

La plupart des débats sur l’IA commencent par les mêmes interrogations : Que va-t-elle remplacer ? Quels métiers vont disparaître ? Combien de temps allons-nous gagner ?

Ces questions sont légitimes. Mais elles reposent sur une hypothèse implicite : que l’IA serait avant tout un outil neutre, que l’on pourrait ajouter à nos organisations comme on a ajouté un ERP ou un tableur.

Dans la réalité, les choses sont rarement aussi simples. La vraie question n’est pas seulement « Que peut faire l’IA ? »

Elle est plutôt : « Qu’est-ce que nous acceptons de lui laisser faire à notre place — et pourquoi ? »

Cette dissociation entre action et jugement a été largement analysée en philosophie politique, notamment par Hannah Arendt, lorsqu’elle montre comment des systèmes peuvent produire des décisions sans que personne n’en assume pleinement la responsabilité.

Dans beaucoup d’organisations, ces arbitrages restent implicites. On automatise parce que « ça marche », parce que « c’est plus efficace », parce que « tout le monde le fait ». La discussion sur le sens, la responsabilité ou les effets à long terme arrive plus tard — quand elle arrive.

L’IA amplifie ce que nous avons déjà du mal à regarder : la manière dont nous décidons, et parfois la manière dont nous nous arrangeons pour ne plus décider vraiment.

L’IA comme révélateur systémique

L’IA ne transforme pas d’abord les organisations par ce qu’elle fait, mais par ce qu’elle révèle.

Dans la plupart des entreprises aujourd’hui, elle n’est pas un « cerveau autonome » qui prend le pouvoir. Elle agit de manière beaucoup plus banale : outils d’aide à la rédaction, moteurs de recommandation, systèmes de tri, tableaux de bord, algorithmes de priorisation.

Autrement dit, l’IA s’insère au cœur de nos processus cognitifs ordinaires.

C’est là que son effet devient systémique. Car ce qu’elle infiltre, ce n’est pas seulement l’exécution — c’est la manière de penser, de prioriser, d’arbitrer.

Progressivement, elle suggère plutôt que l’on délibère, priorise plutôt que l’on choisisse, recommande plutôt que l’on discute, accélère là où il faudrait parfois ralentir.

À court terme, cette infiltration est largement invisible. Elle soulage, elle fluidifie, elle « aide ».

À moyen terme, elle révèle autre chose : un déplacement silencieux du discernement.

Ce que l’IA met en lumière, ce ne sont pas ses propres limites techniques. Ce sont les limites que nous avons déjà intégrées dans nos organisations : des processus de décision peu débattus, des critères implicites jamais revisités, des responsabilités fragmentées, une pression constante à « faire plus vite », « faire mieux », « faire sans discuter ».

L’IA ne crée pas ces dynamiques. Elle les accélère. Elle les rend structurelles. Elle transforme des habitudes en règles, et des renoncements discrets en fonctionnement normal.

Où se situe encore le pouvoir de décider ?

Derrière chaque automatisation, il y a une décision préalable. Et derrière chaque décision, il y a un choix politique, au sens noble du terme : qui décide, selon quels critères, avec quelle possibilité de remise en question.

Ce que l’IA révèle de manière particulièrement nette, c’est que le pouvoir de décider devient de plus en plus difficile à situer.

Non pas parce qu’il aurait disparu. Mais parce qu’il s’est déplacé — dans des paramètres techniques, des critères de priorisation, des modèles entraînés sur des données historiques, des processus que plus personne ne questionne vraiment.

Progressivement, les décisions ne sont plus portées par des personnes identifiables, ni débattues comme telles. Elles deviennent le résultat normal du fonctionnement du système.

Et lorsque la décision n’est plus clairement assumée, le discernement collectif s’érode.

On ne suit plus une orientation parce qu’elle a été comprise ou co-construite, mais parce qu’elle apparaît comme la conséquence logique — voire inévitable — du dispositif en place.

Ce n’est pas une obéissance imposée. C’est une soumission fonctionnelle, douce, souvent inconsciente : « ce n’est pas moi qui décide, c’est l’outil », « ce n’est pas un choix, c’est le système », « on n’a pas le temps de faire autrement ».

Cette délégation confortable produit aussi un effet plus discret : un lissage des options proposées, une réduction de la prise de risque, une perte progressive de courage et de créativité dans les décisions humaines.

Réinstituer la décision humaine : des pratiques concrètes

Si l’IA agit comme un révélateur, alors la question centrale devient institutionnelle : comment préserver — ou reconstruire — des espaces où la décision reste vivante, discutable, évolutive ?

Contrairement à ce que l’on pourrait croire, il ne s’agit pas d’inventer des modèles ex nihilo. De nombreuses organisations expérimentent déjà des approches qui redonnent au discernement humain sa place centrale.

Des processus de décision explicites

Distinguer clairement ce qui relève de l’automatisation et ce qui relève du jugement humain. Avant de « coder » un critère dans un outil, se demander : qui a décidé de ce critère ? Est-il encore pertinent ? Peut-il être remis en question ?

Des modes de gouvernance distribuée

Plutôt qu’un pouvoir centralisé ou dilué, clarifier qui détient l’autorité sur quoi. Chaque personne peut exercer un discernement situé dans son domaine, sans attendre une validation hiérarchique ni se réfugier derrière « le système ».

Des décisions par consentement

Accepter des décisions imparfaites mais ajustables, qui permettent d’agir sans attendre une vérité absolue. Le consentement n’est pas l’unanimité — c’est l’absence d’objection bloquante. Cela préserve la capacité d’itérer.

Des espaces de délibération sur les critères

Avant de confier des arbitrages à des systèmes automatisés, prendre le temps de débattre collectivement : quels critères ? Quelles priorités ? Quels effets non intentionnels possibles ?

Ces pratiques ont un point commun : elles reconnaissent que la décision est un processus, pas un résultat. Et que ce processus mérite d’être cultivé comme une compétence collective — surtout dans un monde où la tentation de le déléguer n’a jamais été aussi forte.

Conclusion — Reprendre la main sur nos décisions

Faire face à l’IA, au fond, ce n’est pas décider si l’on va l’adopter ou la refuser.

C’est décider comment nous voulons continuer à décider.

Au sein de Paradigm21, ces questions sont explorées à plusieurs niveaux : des architectures de décision jusqu’aux effets cognitifs concrets de l’IA sur notre manière de penser, de nous concentrer et de juger.

Ce que l’IA révèle — parfois brutalement, parfois insidieusement — ce n’est pas seulement notre rapport à la technologie, mais notre rapport au pouvoir, au discernement et à la responsabilité.

La question n’est donc pas « comment empêcher l’automatisation ? » mais plutôt : quelles décisions voulons-nous encore habiter pleinement comme humains — individuellement et collectivement ?

L’enjeu n’est pas de ralentir le progrès, ni de sacraliser l’humain contre la machine. Il est de ne pas laisser la technique décider seule de ce que nous cessons de questionner.

Le véritable travail à mener n’est pas seulement technologique — il est organisationnel, politique et profondément humain.

Et l’IA, si elle agit comme révélateur, nous offre aussi une occasion rare : celle de repenser consciemment nos manières de décider, avant qu’elles ne se figent ailleurs, sans nous.

Pour aller plus loin :

Coach, formateur et consultant

J'ai rejoint Paradigm21 en 2019.

J'ai trouvé dans le projet "Paradigm21" un vecteur de développement très ouvert et responsabilisant. C’est en même temps un chemin vers toujours plus de courage pour proposer au monde une manière radicalement différente d'organiser les liens humains et les rapports de pouvoir dans les organisations.

Articles liés

Réponses

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Recevoir les nouvelles d’un paradigme en émergence ?