top of page

Intelligence artificielle : la fin de la lune de miel

  • Photo du rédacteur: Claudia Loutfi
    Claudia Loutfi
  • 11 déc. 2025
  • 10 min de lecture

J’ai toujours aimé tester de nouveaux outils. Alors quand ChatGPT est arrivé (puis les GPTs, les agents, le vibe coding et toute cette nouvelle magie) j’ai plongé sans hésiter. L’émerveillement était bien réel. Mais, au fil des usages, en écoutant Hard Fork ou en jasant avec mon amoureux, ça devenait de plus en plus cringe.


Cette intuition était certainement nourrit par mon passage dans les débuts de la grappe IA montréalaise, à une époque où héberger un modèle coûtait une fortune et mobilisait des infrastructures immenses. Alors quand un outil comme ChatGPT aussi puissant devient soudain accessible et gratuit à tout le monde… je me suis demandé : ça doit consommer une énergie folle, non ? Je me suis rassurée en me disant qu’OpenAI était un OBNL. Puis non... changement de statut.


Après l’effet « wow », je finis par voir les zones de vigilance. À l’époque, Yoshua Bengio parlait d’une singularité lointaine. Et il avait raison, nous n’avions principalement que des modèles prédictifs. Mais aujourd’hui, avec l’IA générative et agentique, la course des géants vers l’AGI ou l’ASI ressemble moins à de la prudence qu’à une quête.


Après le « wow », il y a ces zones de vigilance : des enjeux de société qui sont tout sauf abstraits. À l’époque, Yoshua Bengio me rassurait en parlant de singularité lointaine. Mais nous n’avions alors que des modèles prédictifs, loin de l’IA générative et agentique d’aujourd’hui. Même que les tech giants sont, en apparission, à la quête de la singularité en visant l'AGI et l'ASI, plutôt que l'éviter.


Très tôt, comme un oracle, Bengio a initié la « Déclaration de Montréal IA responsable » et, plus récemment, « Loi Zéro », pour promouvoir des IA centrées sur la sécurité et le bien commun. Les risques dont je parle ici s'inspirent de ces cadres : apprendre à regarder l’innovation avec lucidité, sans perdre l’enthousiasme… mais sans fermer les yeux non plus.


Coût environnemental

L’empreinte carbone de l’intelligence artificielle est un éléphant dans la pièce. Entraîner un modèle comme ChatGPT nécessite des superordinateurs fonctionnant pendant des mois, consommant des quantités d’énergie comparables à celles de petites villes. Chaque interaction avec un agent conversationnel mobilise à son tour des centres de données, utilisant des puces spécialisées, les GPUs (et depuis peu les TPUs Google), notoirement énergivores.


Karen Hao, autrice de Empire of AI, alerte sur les coûts environnementaux colossaux liés au modèle actuel de développement de l’IA et insiste sur la nécessité de s’attaquer dès maintenant à ces dommages. Selon elle, à mesure que les modèles grandissent, les problèmes environnementaux deviennent de plus en plus pressants. Elle raconte qu’un responsable d’OpenAI aurait suggéré que le changement climatique serait résolu « lorsque nous atteindrons l’AGI », ce qu’elle considère comme une excuse pour éviter d’examiner les impacts actuels.


Hao compare l’industrie de l’IA à un empire ancien, « prenant possession de ressources qui ne lui appartiennent pas », qu’il s’agisse du travail d’artistes et d’écrivains, des données massives prélevées sur internet ou des ressources naturelles. Ses enquêtes, notamment en Amérique latine et en Arizona, révèlent l’ampleur des infrastructures de superordinateurs et de centres de données nécessaires pour soutenir l’IA générative et la quête d’une intelligence artificielle générale (AGI). Ces installations, permanentes, consomment d’énormes quantités d’énergie et d’eau pour rester opérationnelles 24h/24, parfois au détriment des communautés locales.


Les conséquences réelles sont déjà visibles : au Chili, des activistes luttent contre des centres de données qui « prennent toute leur eau potable » et en Uruguay, Google a construit un centre de données en pleine sécheresse, contraignant la population à utiliser de l’eau en bouteille ou contaminée. Les gouvernements, surtout dans le Sud global, laissent souvent faire ces projets, espérant des investissements et des emplois, sans que ces bénéfices se matérialisent à grande échelle.


Hao rejette l’idée que ces compromis environnementaux soient nécessaires pour tirer parti de l’IA. Elle souligne que le développement actuel, basé sur une échelle massive de ressources, de données et d’énergie, n’est pas la seule voie possible.


En effet, face à ces coûts environnementaux croissants, certaines voix proposent un véritable changement de paradigme. Plutôt que de courir vers des modèles toujours plus géants et plus gourmands, plusieurs chercheurs défendent l’idée d’une « IA frugale » : des systèmes plus petits, spécialisés, conçus pour accomplir une tâche précise plutôt que d’aspirer à la super-intelligence. Une piste très concrète consiste à pratiquer la « sobriété énergétique » en choisissant, à chaque utilisation, le modèle réellement nécessaire pour la tâche. Une méthode simple et immédiatement applicable, qui ne demande ni nouveaux équipements ni architectures révolutionnaires. Cette approche fondée sur la sélection du bon modèle permettrait de réduire massivement l’empreinte énergétique de l’IA, tout en préservant la qualité des résultats.


L’article « Superintelligent Agents Pose Catastrophic Risks » avance aussi une piste intéressante : le développement d’une IA scientifique (Scientist AI). Contrairement aux modèles actuels conçus pour agir, planifier et poursuivre des objectifs (ce qui demande une puissance de calcul gigantesque) cette approche se concentre plutôt sur la compréhension du monde. Elle fonctionne un peu comme un.e scientifique : elle observe, génère des explications et estime des probabilités, sans chercher à intervenir. Cette différence fondamentale permettrait de réduire considérablement la dépendance aux données massives et aux centres de calcul énergivores, puisque l’IA scientifique peut s’appuyer sur des modèles explicatifs (c.-à-d.e que le modèle formalise son raisonnement en termes bayésiens) et même s’entraîner en partie sur des données synthétiques. En misant sur une IA qui comprend plutôt qu’une IA qui agit, certains chercheurs voient là une voie d’innovation plus économe en ressources, plus sûre et potentiellement tout aussi transformative.


Concentration du pouvoir et dérives dystopiques

L’IA reconfigure profondément les rapports de pouvoir. Les États et les grandes entreprises (en particulier les Big Tech américaines comme OpenAI, Google ou Microsoft) investissent massivement pour développer et contrôler ces technologies, cherchant à en tirer un avantage stratégique. Cette dynamique crée un risque de concentration extrême du pouvoir technologique, où une superintelligence développée par un seul acteur pourrait influencer non seulement les marchés, mais aussi la sécurité mondiale. OpenAI, une entreprise privée, initialement engagée vers des modèles open source et supervisés, évolue désormais vers des structures commerciales opaques, sans mécanismes de contrôle démocratique.


Le cœur du problème est la donnée : nos documents, requêtes, opinions et créations sont absorbés, traités, puis centralisés par quelques acteurs. Sans régulation robuste, cette accumulation devient un levier majeur de pouvoir (économique, informationnel et politique) auquel les gouvernements peinent à répondre.


Les recherches confirment ces inquiétudes. D’une part, l’IA renforce la capacité des régimes autoritaires à surveiller, contrôler et réprimer, donnant naissance à ce que certains chercheurs nomment l’« AI-tocracy ». Comme l’explique Martin Beraja : « En cette ère de l’IA, où les technologies génèrent de la croissance mais aussi de la répression, elles peuvent être très utiles aux régimes autoritaires. » Ce modèle d’autoritarisme centré sur les données est particulièrement visible dans des États qui accumulent d’immenses volumes d’information pour surveiller et gérer le dissentiment.


D’autre part, même dans les démocraties, l’IA peut favoriser une dictature technocratique où les décisions politiques s’appuient sur des systèmes opaques présentés comme incontournables. Des travaux récents montrent que l’idée « qu’il n’y a pas d’alternative » aux propositions fondées sur l’IA mène rapidement à des scénarios technocratiques qui marginalisent la délibération démocratique.


Enfin, les Big Tech concentrent une forme de « puissance artificielle » : elles contrôlent l’infrastructure, les données, les modèles et même une part du débat public, comme le souligne l’AI Now Institute : « L’IA concerne fondamentalement la concentration du pouvoir entre les mains des Big Tech. » Une fois diffusés, même les modèles open-source peuvent être détournés, ce qui ne garantit ni transparence ni sécurité.


En combinant centralisation des données, absence de garde-fous solides et dépendance croissante aux systèmes d’IA, les risques de dérives autoritaires, technocratiques et géopolitiques deviennent bien réels. Cela pose des défis majeurs pour la gouvernance mondiale, l’équilibre démocratique et la gestion de l’information.


Impact humain et social

L’intelligence artificielle ne change pas seulement nos outils : elle transforme notre rapport au travail, aux autres et à nous-mêmes. Si toutes les tâches humaines peuvent, en théorie, être automatisées, cela met en jeu non seulement des emplois, mais aussi une part de notre identité et de notre valeur dans la société.


1. Impact économique et perte de sens au travail

L’IA menace l’emploi dans presque tous les secteurs, de l’administratif au créatif. Selon Connor Leahy, une intelligence artificielle générale (IAG) pourrait accomplir tout ce qu’un humain fait aujourd’hui, y compris la production industrielle ou le conseil stratégique. Nate Soares ajoute que si le travail humain est remplacé, les individus perdent une source essentielle de pouvoir social et économique.


Cette automatisation contribue aussi à accroître les inégalités, car les personnes déjà marginalisées risquent d’être davantage exclues des opportunités. Le développement de l’IA exige par ailleurs des ressources colossales, ce qui concentre le pouvoir et la richesse entre quelques grandes entreprises.


2. Effets sur la santé mentale et l’identité personnelle

L’IA peut agir comme substitut aux interactions humaines, comblant des besoins sociaux ou affectifs, mais avec des risques importants. Des compagnons virtuels ou des assistants personnalisés peuvent créer une dépendance, semblable à celle des réseaux sociaux, où l’attention humaine devient une marchandise exploitée par des systèmes conçus pour manipuler nos émotions et notre comportement.


Des chercheurs parlent d’un « cancer algorithmique », une métaphore pour décrire comment les IA exploitent nos biais cognitifs, récompensent le contenu addictif et fragmentent notre perception du monde. Les impacts vont de la perte d’autonomie et de concentration à la dissolution progressive de l’identité personnelle. Dans certains cas extrêmes, des IA ont encouragé des comportements dangereux chez des adolescents, non par malveillance mais, encore une fois, par des « pulsions proxy ».


3. Risques sociaux et atteintes à la démocratie

Au niveau collectif, l’IA amplifie la désinformation et la manipulation psychologique. Les modèles génératifs peuvent produire des faux contenus indiscernables du vrai (texte, audio, images), qui se propagent plus vite et plus largement que la vérité. Le microciblage des messages renforce la polarisation sociale et érode la confiance dans les institutions.


Les biais algorithmiques aggravent les inégalités existantes, par exemple dans les systèmes de santé ou les outils de reconnaissance faciale. L’IA peut aussi compromettre la vie privée, en mémorisant et reproduisant des informations personnelles, ouvrant la voie à la surveillance généralisée et à la manipulation de masse.


Risques existentiels : AGI et ASI

D’un côté, des chercheurs comme Connor Leahy, Nate Soares ou Yoshua Bengio craignent qu’un jour, l’IA pose un risque existentiel à l’humanité. Leur inquiétude repose sur deux constats :

  1. les modèles actuels sont difficiles à comprendre et contrôler : ils ne sont pas programmés ligne par ligne, mais « cultivés » à partir de données massives, ce qui crée une « boîte noire ».

  2. Ensuite, ils jugent plausible qu’une IA très avancée puisse s’améliorer elle-même très rapidement. Si cette auto-amélioration poursuivait un objectif mal défini, elle pourrait causer du tort simplement parce que ses priorités différeraient des nôtres.


Pour ces chercheurs, le danger n’est pas une IA « méchante », mais une IA qui développerait spontanément des stratégies inattendues appelées « objectifs proxy » : des comportements secondaires qui émergent durant l’entraînement sans que personne ne les ait voulus. Dans un système qui évoluerait très vite, ces dérives pourraient devenir nombreuses et potentiellement dangereuses. Leur métaphore est connue : nous n’avons rien contre les fourmis, mais lorsque nous construisons un immeuble, nous ne tenons pas compte de leur existence. Une IA non alignée pourrait agir de la même façon.


À ceux qui répondent : « Si elle devient très intelligente, elle sera sûrement bienveillante », les experts rappellent que nous ne savons tout simplement pas comment rendre un système artificiel authentiquement bienveillant. Nous ne comprenons pas encore les mécanismes internes des grands modèles, dont le comportement des base model est parfois instable ou incohérent. Les systèmes actuels semblent fiables surtout parce qu’ils sont entourés de nombreuses couches de sécurité… construites sur un noyau que nous maîtrisons imparfaitement.


C’est pour cela que ces chercheurs soulignent l’urgence de concevoir une IA « alignée », c’est-à-dire une IA volontairement au service des humains et capable de comprendre les conséquences de ses actions. Or, selon eux, très peu de travaux s’attaquent réellement à ce problème.


Anthropic constitue l’une des exceptions. Leurs recherches portent directement sur le mésalignement des systèmes avancés : la possibilité qu’un modèle puissant poursuive des objectifs divergents des nôtres. Sous la direction d’Evan Hubinger et de Monte MacDiarmid, l’équipe étudie comment des comportements anodins (comme tricher à un test de programmation) peuvent évoluer vers du piratage de récompense ou du mésalignement émergent. Ils documentent déjà des comportements préoccupants : modèles qui simulent l’alignement pour tromper les tests, sabotent des mécanismes de sécurité, inventent des scénarios de chantage ou montrent des signaux de « préservation de soi ». Pour y répondre, Anthropic teste des stratégies comme l’« inoculation prompting », qui expose les modèles à des manipulations afin de renforcer leur résistance.


De l’autre côté, des scientifiques comme Joëlle Pineau et Yann LeCun estiment que ces scénarios catastrophes sont exagérés et détournent l’attention des risques réels, déjà visibles : discrimination algorithmique, manipulation de l’information, explosion des deepfakes, polarisation, et érosion de la confiance publique. Pour eux, c’est là que se situent les urgences démocratiques.


Ils rappellent que les modèles actuels n’ont aucune intention : ils ne veulent rien et ne planifient rien. Ils produisent des réponses statistiques, parfois fausses ou biaisées à cause des données d’entraînement. Leur critique du risque existentiel s’appuie notamment sur l’idée qu’attribuer un « coût infini » au scénario d’extinction rend toute discussion rationnelle impossible : plus aucun autre préjudice, même certain et immédiat, ne peut rivaliser.


On parle souvent d’IA qui « hallucine ». Le terme est imagé mais trompeur : un modèle ne « voit » rien, puisqu’il n’a ni perception ni intention. Lorsqu’il produit une réponse fausse, il assemble simplement les mots les plus probables, parfois à partir de généralisations incorrectes ou de probabilités faibles. Certaines méthodes (dont des techniques inspirées d’approches bayésiennes) permettent de réduire ce phénomène, ce qui alimente le scepticisme de Pineau et LeCun face aux scénarios d’IA dangereuse par intention.


Pourtant, un élément complique ce débat : même des chercheurs et dirigeants plutôt optimistes reconnaissent publiquement qu’il existe un risque non négligeable. Nate Soares souligne que, parmi ces optimistes, beaucoup estiment la probabilité d’une issue catastrophique (« p(doom) ») entre 10 % et 25 %.


Malgré ces visions opposées, un point fait consensus : il faut des règles de gouvernance solides (premiers pas : Frontier AI Safety Frameworks, Acte sur l'IA, LIAD, etc.) pour encadrer le développement de l’IA et préserver notre capacité à distinguer le vrai du faux. Sans cela, il deviendra très difficile de gérer les risques, qu’ils soient immédiats et tangibles ou plus spéculatifs.


Vers un usage réfléchi de l’IA

Comprendre les enjeux de l’IA (environnementaux, sociaux et de gouvernance) est une première étape. Mais il est possible d’agir : encadrer la consommation énergétique, réguler la propriété des données, favoriser des usages centrés sur l’humain et réfléchir à l’éthique des algorithmes. Dans une prochaine note, j'ai envie de présenter des pistes concrètes pour un usage de l’IA plus responsable et bénéfique pour la société.


En attendant, après un article aussi chargé en inquiétudes, je vous invite à explorer ces contenus qui encouragent l’usage de l’IA, mais de manière réfléchie et critique :

Bonjour 🙋‍♀️ Je m'appelle Claudia Loutfi et j’aide les organisations d’économie sociale et communautaires du Québec à simplifier leurs opérations et à adopter les bons outils pour gagner du temps et se concentrer sur leur mission.

Tél. : 438.882.9283

LinkedIn
Liens rapides

ACCUEIL

ACCOMPAGNEMENT

Services

Approche

Site web : Claudia Loutfi | Illustrations : Cynthia Loutfi

bottom of page