IA: gérer le changement à la Vitesse grand V
Depuis quelques mois, la question qui revient chez mes étudiants comme chez mes clients, ce n’est plus « faut-il adopter l’IA? », mais plutôt : qu’est-ce que l’accélération vertigineuse de l’IA va réellement changer — pour le meilleur et pour le pire — et où seront les limites, les goulots, les points de rupture?
Ces jours-ci, un texte circule comme un signal d’alarme bien senti : Something Big Is Happening, signé Matt Shumer, entrepreneur et CEO en IA. Il compare notre « moment IA » à février 2020 : cette période où « quelque chose » montait… mais où la plupart vivaient encore dans le déni, comme si rien n’allait basculer.
Son texte a fait boule de neige, relayé et commenté dans les médias, notamment parce qu’il touche une peur très contemporaine : celle d’être dépassés avant même d’avoir compris ce qui change.
Sauf que, pour gérer du changement, il faut accepter une règle simple : il y a presque toujours plusieurs vérités qui coexistent.
Deux « vérités » qui tirent dans des directions opposées
Récit # 1 — La bascule imminente.
L’IA n’« aide » plus seulement : elle commence à faire les choses à notre place, surtout sur des tâches cognitives routinières (résumer, rédiger, explorer, coder, produire des versions 1). On comprime le bas de l’échelle, on polarise les rôles, et on fragilise l’entrée de carrière. C’est l’axe du texte de Shumer.
Récit #2 — L’atterrissage lent.
Même quand la capacité technique progresse vite, l’adoption réelle suit rarement la même courbe. Les organisations traînent : intégration, données, sécurité, conformité, métiers, résistance, budget, qualité… Ce n’est pas sexy, mais c’est là que les projets gagnent ou s’écrasent. Cette idée — que les grandes technologies mettent souvent plus de temps que prévu à transformer l’économie — revient régulièrement dans l’analyse économique.
Si on s’enferme dans une seule de ces « vérités », on prend de mauvaises décisions :
- Avec le premier, on panique et on « déploie » n’importe quoi.
- Avec le second, on rationalise l’attentisme… jusqu’à se faire surprendre.
La gestion du changement sert précisément à éviter ce duel stérile.
Le vrai déplacement est invisible
Le piège, c’est de croire que l’IA est un « outil » de plus. Dans les faits, elle déplace quatre choses, discrètement:
- La responsabilité : quand une décision est co-produite par un humain, un modèle et un fournisseur, qui répond quand ça se trompe?
- La qualité : comment prouver qu’un résultat est fiable, traçable, auditable?
- Les compétences : si l’IA fait les “premières marches”, comment la relève apprend-elle à les monter?
- Le pouvoir : qui contrôle les modèles, l’infrastructure, les règles d’usage, les seuils d’acceptabilité?
Et ce sont des questions qui se font de plus en plus pressantes à la tête des organisations et des gouvernements. Parce que les conséquences d’une implantation exponentielle de l’IA dépassent l’imaginaire (comme les conséquences d’une pandémie relevaient de la fiction en février 2020). On peut toujours se rassurer en comptant sur la nature pour installer des goulots qui freineront la main mise de l’IA…
Le goulot dont on parle de plus en plus : l’énergie
C’est un autre des sujets de l’heure… Parce que l’IA à grande échelle est aussi une histoire très matérielle et physique : électricité, centres de données, refroidissement, raccordements, réseau.
Sur ce point, plusieurs sources solides convergent vers la même vérité : l’Agence internationale de l’énergie, par exemple, estime que la demande d’électricité des centres de données pourrait plus que doubler d’ici 2030, avec l’IA comme moteur majeur. Aux États-Unis, le U.S. Department of Energy (via Lawrence Berkeley National Laboratory) documente une croissance rapide de la charge des centres de données et des scénarios où elle pourrait doubler ou tripler à l’horizon 2028.
Au Québec, cette pression est déjà traitée comme un enjeu de sélection et de capacité : les grands raccordements liés notamment aux centres de données sont davantage encadrés, et Hydro-Québec rappelle que le goulot, sur le terrain, est souvent celui du réseau et des raccordements locaux — pas seulement l’énergie “disponible” au total.
De son côté, face au goulot énergétique, Elon Musk pousse une réponse franchement “science-fiction” : il a annoncé début février 2026 la fusion de SpaceX et xAI, en liant explicitement l’essor de l’IA à des infrastructures spatiales, dont des centres de données orbitaux alimentés au solaire pour réduire la pression sur les réseaux terrestres. Sans compter ses ambitions de ville “auto-croissante” sur la Lune d’ici 10 ans…
Tout ça pour dire que oui : l’énergie pourrait freiner l’accélération de l’IA. Mais en gestion du changement, un frein n’est pas un garde-fou ou une barrière. Une crise peut rapidement se transformer en opportunité.. Et c’est ici qu’un lien politique apparaît : l’administration Trump a explicitement cherché à desserrer les contraintes énergétiques et infrastructurelles , avec des déclarations d’urgence énergétique, le soutien à des capacités polluantes comme le charbon, l’accélération des permis, etc.
On voit donc que « comme l’Homme est Homme », une crise énergétique ne garantit pas une gouvernance de l’IA plus sage. Elle peut même produire l’inverse : induire les décisions précipitées, les exceptions, les arbitrages opaques, la concentration de pouvoir.
Les garde-fous qui comptent vraiment sont organisationnels (et certains existent déjà)
La bonne nouvelle, c’est qu’on n’est pas condamnés à attendre la crise. D’autres garde-fous — choisis, discutés, perfectibles — sont déjà en place :
- Cadres de gestion des risques : le AI Risk Management Framework du National Institute of Standards and Technology propose une logique de gouvernance (risques, impacts, robustesse, traçabilité) au lieu de slogans.
- Principes internationaux : l’OCDE a adopté dès 2019 des principes d’IA « digne de confiance » (droits, transparence, robustesse, responsabilité).
- Régulation : l’AI Act de l’Union européenne avance avec une mise en œuvre progressive et un calendrier officiel (dont des obligations comme l’AI literacy et des règles sur les modèles à usage général).
ET chez nous?
- Canada (secteur public) : la Directive sur la prise de décision automatisée s’appuie sur une évaluation obligatoire des risques (Algorithmic Impact Assessment).
- Québec (vie privée / décisions automatisées) : la Loi 25 renforce des exigences de transparence et de gouvernance autour des décisions automatisées et des évaluations d’impact.
- Québec (IA générative dans le public) : le Ministère de la Cybersécurité et du Numérique publie des mesures et un guide d’application qui traduisent l’intention en actions (proportionnalité risques/bénéfices, encadrement, pratiques).
Donc on peut voir que des garde-fous existent déjà. Le défi, c’est qu’ils ne “s’installent” pas comme un logiciel. Ils exigent une traduction organisationnelle : rôles clairs, traçabilité, mécanismes de recours, qualité, et surtout… une volonté réelle de passer à l’action.
Ma synthèse de prof de gestion du changement
Si je devais résumer ce moment en une phrase : le point de bascule n’est pas technologique, il est organisationnel.
Le risque n’est pas seulement de « perdre le contrôle » de l’IA. Le risque, plus banal et plus réel, c’est de perdre nos mécanismes de contrôle : règles d’usage, qualité, responsabilité, apprentissage, équité, trajectoires de carrière.
Alors pour ma part, je ramènerais le débat à quatre questions simples, mais fondamentales:
- Où l’IA a-t-elle le droit d’aller — et où non? (valeur humaine nette, pas effet vitrine)
- Qui répond, noir sur blanc, quand ça se trompe? (audit, traçabilité, recours)
- Qu’est-ce qu’on protège dans l’apprentissage, et qu’on continue d’enseigner? (les “marches” du métier, pas seulement l’efficacité)
- Qu’est-ce qu’on mesure vraiment? (performance et externalités : coûts, incidents, énergie, confiance)
Un frein peut ralentir. Mais il ne protège pas. La protection, c’est le gouvernail : prioriser, encadrer, documenter, former, refuser quand il le faut. Du moment où les mains sur le gouvernail sont en chair et en os, ça pourra aller. Sinon, on fonce dans le mur à la vitesse Grand V.
____________________
Nathalie Brunette, DBA, MBA
Consultante en stratégie organisationnelle
Chargée de cours, UQO
Rédaction assistée de l’IA