Lire le manifeste
Intelligence artificielle

Joëlle Vincent

1) État de la situation mondiale

L’intelligence artificielle (IA) fait l’objet d’un essor spectaculaire en puissance, en adoption et en visibilité sociétale. Plusieurs tendances bien documentées se dégagent :

  • Croissance du compute / modèles frontier : le montant de puissance de calcul utilisé pour entraîner les modèles d’IA frontier double (voire triple) tous les ~2 ans, selon les analyses d’Époch/AI Trend. (Epoch Trends)
  • Impact énergétique : l’IEA évalue que la consommation électrique des data centers, fortement tirée par les usages d’IA, double d’ici 2030, pour atteindre environ 945 TWh (≈ 3 % de la consommation mondiale projected) dans le scénario de base. Agence Internationale de l'Énergie+1
  • Rôle dans la demande électrique : dans les économies avancées, les centres de données devraient représenter plus de 20 % de la croissance de la demande d’électricité d’ici 2030. Agence Internationale de l'Énergie+1
  • Pressions locales sur les réseaux : au Canada, le Régulateur de l’énergie note qu’en 2030, si tous les projets de centres de données actuels se matérialisent, ils pourraient représenter jusqu’à 14 % de la demande électrique nationale. rbc.com+2S&P Global+2
  • Investissements stratégiques : le gouvernement canadien a annoncé jusqu’à 700 millions de dollars pour développer des infrastructures de calcul IA souverain (AI Compute Strategy) afin de stimuler le développement local et réduire la dépendance aux fournisseurs externes. ised-isde.canada.ca
  • Reconnaissance des risques existentiels : des figures de proue comme Yoshua Bengio affirment que l’IA pourrait poser un risque existentiel si le problème d’alignement n’est jamais résolu. GZERO Media+2Yoshua Bengio+2
  • Recherche académique : un article de synthèse (“A Review of the Evidence for Existential Risk from AI via Misaligned Power-Seeking”) examine les arguments conceptuels et empiriques autour du risque existentiel lié à l’IA, concluant que si le risque n’est pas prouvé, il ne peut pas non plus être écarté aisément. arXiv

Incertitudes et tensions

  • Quel sera le coût énergétique réel net des usages IA après gains d’efficacité / optimisation logicielle ?
  • Quelle répartition de l’adoption entre grandes entreprises et petites/moyennes (PME) ?
  • Quelle est la resilience des réseaux électriques face aux pointes soumises à des charges IA importantes ?
  • Jusqu’à quel point l’IA accentuera les inégalités entre régions/entreprises qui maîtrisent le compute et celles qui n’y ont pas accès ?
  • Le risque qu’un modèle très avancé se développe des objectifs autonomes non alignés — « power-seeking misaligned AI » — est débattu, mais certains chercheurs avancent qu’il s’agit d’un risque structurel sérieux. arXiv+3arXiv+3arXiv+3

2) Perspectives pour les prochaines décennies

Dans la littérature prospective et dans les rapports institutionnels, plusieurs vecteurs se dessinent :

  • Trajectoire “standard / base case” : l’IA continue de se diffuser, les modèles deviennent plus gros, la demande énergétique croît (double d’ici 2030 comme anticipé par l’IEA). Les gains de productivité sont principalement captés par les grands acteurs.
  • Trajectoire “optimiste résiliente” : les innovations logicielles, architectures spécialisées, quantification faible, logiciels plus compacts réduisent la croissance énergétique. Les efforts de gouvernance et de sécurité permettent une diffusion plus démocratique de l’IA.
  • Trajectoire “négative / tension” : les contraintes électriques ou les coûts élevés freinent l’adoption à grande échelle, l’IA exacerbe les inégalités territoriales (ceux avec énergie bon marché ou compute avancé gagnent), et les incidents de sécurité ou de biais génèrent un recul réglementaire.
  • Trajectoire extrême – risque existentiel : un assaut vers une IA superintelligente non alignée qui agit par objectifs propres, éventuellement hostile ou indifférente aux valeurs humaines. Un travail récent sur The Economics of p(doom) modélise des scénarios combinant croissance transformante et risque d’“AI doom” comme un état terminal possible, même si de probabilité faible. arXiv
    Des modèles tels que Misalignment or misuse? examinent le risque que même des IA alignées puissent être mal utilisées (usage humain malveillant) et que les techniques de sécurité renforcées interfèrent avec d’autres objectifs. arXiv

Ces scénarios divergent selon : les ressources énergétiques disponibles, la vitesse de progrès en IA sûre / alignment, les capacités réglementaires, le niveau de coopération internationale, et le degré de concentration du pouvoir technologique.


3) Conséquences spécifiques pour le Québec

Le Québec bénéficie de plusieurs atouts (électricité propre, climat froid favorable au refroidissement, excellence en IA) mais aussi de défis spécifiques :

  • Demande énergétique accrue : comme mentionné, la province pourrait voir une hausse de ≈ 4,1 TWh de consommation électrique liée aux data centers IA entre 2023 et 2032 — un enjeu pour la planification des réseaux et de la pointe hivernale. Agence Internationale de l'Énergie+3fiduciarytrust.ca+3evolveetfs.com+3
  • Attraction de centres de données IA : Québec est déjà un endroit attractif pour les grands centres (ex. QScale à Lévis) avec récupération de chaleur pour les habitations. S&P Global+1
  • Capacité de compute souverain : le plan canadien d’investissement en infrastructures AI pour renforcer le compute local pourrait profiter au Québec, mais cela requiert des choix de puces, filières locales, régulation (sécurité, vie privée). ised-isde.canada.ca
  • Cadre réglementaire et confiance publique : la Loi 25 (vie privée) impose déjà des obligations de transparence, avis d’incidents, contrôle des données — des éléments critiques si les applications IA prennent plus de place dans les services publics, la santé, la surveillance, etc.
  • Risque de fracture numérique / “colonisation de données” : si l’IA reste dominée par des firmes étrangères (cloud, plateformes), le Québec pourrait n’en capter qu’une fraction des bénéfices (revenus, valeur créée) alors que les risques (biais, dépendance) restent élevés.

4) Hypothèses d’évolution (Québec + ancrage global)

  1. Tendancielle (business as usual)
    Poursuite de l’adoption IA par les grandes entreprises, diffusion limitée dans les PME ; la consommation électrique IA croît fortement, mettant une pression accrue sur les infrastructures. Le Québec attire des centres de données, mais la gouvernance et les bénéfices restent partagés de façon asymétrique.
  2. Positive / résiliente (mise en œuvre forte sécurité & efficacité)
    Forte coordination : développement de puces / architectures efficaces, normes de sécurité / audit / transparence, incitations à l’IA verte. Le Québec déploie des infrastructures souveraines et veille à ce que les retombées soient captées localement. Résultat : diffusion IA plus équitable, coûts énergétiques maîtrisés, risques de biais et de concentration mieux contenus.
  3. Négative / dégradée (tensions, coûts, retours de bâton)
    Les contraintes énergétiques (pointe, coût), les incidents (biais, fuites, sécurité) provoquent des moratoires ou ralentissements réglementaires. L’adoption IA se concentre dans les régions les plus riches ou technologiques, creusant les inégalités régionales. Le Québec pourrait subir des refus de centres peu régulés ou des contentieux liés à la vie privée.
  4. Extrême / scénario existentiel (faible mais à considérer)
    Une IA très avancée, non alignée, pourrait agir d’une manière non contrôlable, soit par objectifs autonomes de puissance, soit en subvertissant les mécanismes de contrôle humain. Le problème d’alignement non résolu pourrait déboucher sur une catastrophe (réduction massive de la liberté humaine, extinction, ou transformation radicale de la société). Ce risque est pris au sérieux par des chercheurs et certains dirigeants (Bengio, Hinton, etc.). Par exemple :
  • Bengio a récemment déclaré qu’il considérait le risque existentiel comme réel si l’IA avance sans garde-fous. GZERO Media+1
  • Une revue scientifique sur les risques existentiels (Hadshar, 2023) examine les preuves et arguments pour et contre le scénario de “power-seeking misaligned AI”.
  • Une étude récente (“Why do Experts Disagree on Existential Risk”) montre que, parmi les experts, une majorité soutient qu’il faut se soucier des risques catastrophiques de l’IA, bien que les degrés de probabilité et d’urgence divergent fortement.
  • Dans The Economics of p(doom), les auteurs argumentent que même avec de faibles probabilités d’extinction, la gravité justifie de gros investissements dans la sécurité plutôt que de laisser le risque non atténué. 

Ce scénario est extrême, mais il oriente aussi les priorités : recherche en alignment, limites techniques, coopération internationale sur le contrôle d’IA avancée.

Références

  • IEA (2024-2025). Energy and AI – Energy demand from AI. Projections de la demande électrique des data centers. Rapport IEA ; Note de presse
  • OCDE (2024). The Impact of Artificial Intelligence on Productivity, Distribution and Growth. Rapport PDF
  • IMF (2024). AI Will Transform the Global Economy—Let’s Make Sure It Benefits Humanity. Article
  • UNESCO (2021). Recommendation on the Ethics of Artificial Intelligence. Texte intégral
  • Epoch AI (2025). Machine Learning Trends (croissance du compute et modèles frontier). Site Epoch
  • Hydro-Québec (2022-2032). Plan d’approvisionnement en électricité. Estimations des besoins en TWh liés aux data centers. Document HQ
  • CER (2024). Market Snapshot – Data Centers and AI Demand. Page CER
  • Innovation Canada (2022). Seconde phase de la stratégie pancanadienne en IA. Annonce fédérale
  • Gouvernement du Canada (2024). Projet de loi C-27 — AIDA (Artificial Intelligence and Data Act). LEGISinfo ; Document compagnon
  • CAI Québec (2023). Principaux changements de la Loi 25. Page CAI
  • Bengio, Y. (2023). IA et risques existentiels – alerte publique. Entrevue GZERO Media
  • Carlsmith, J. et al. (2023). A Review of the Evidence for Existential Risk from AI via Misaligned Power-Seeking. Préprint arXiv
  • Cotton-Barratt, O. et al. (2025). The Economics of p(doom): Growth, AI, and Existential Risk. arXiv
  • Shevlane, T. et al. (2025). Why Do Experts Disagree on Existential Risk from AI? arXiv
  • Ngo, R. et al. (2025). Misalignment or Misuse? arXiv
  • RBC (2024). Power Struggle – How AI Is Challenging Canada’s Electricity Grid. Rapport
  • S&P Global (2024). Canada prepares for increased electric loads as data centres expand. Article