Séminaire

Mécanismes et omniprésence de l'IA : vers un fascisme numérique ?

1er mars 2025

L’intelligence artificielle (IA) est devenue omniprésente, et son développement exponentiel nourrit autant les espoirs que les craintes. Ses impacts sociétaux, économiques ou militaires font l’objet de très nombreuses publications. Pourtant, peu expliquent pourquoi cette explosion maintenant. Quels sont les mécanismes qui expliquent ce développement exponentiel ? Il y a des freins ?  Jusqu’où cette expansion peut-elle aller ?

Cet exposé vise à éclaircir ces points, en se focalisant sur les algorithmes de recommandation, les modèles de langage type ChatGPT. Je m'appuierai pour cela sur mon expertise professionnelle et mes travaux passés sur l'évolution des algorithmes [1]. Je présenterai également des trajectoires possibles pour nos sociétés, confrontées à cette révolution technologique dans un contexte de limites planétaires.

Les raisons d’un développement exponentiel

Pour comprendre l'accélération de l’IA, il faut avoir un aperçu de leur fonctionnement. Je vais donc tenter de démystifier comment les machines peuvent apprendre, qu’est ce qu’elles peuvent apprendre, et en quoi ces modes d'apprentissage expliquent l’accélération. 

L’espace numérique, nouveau support pour les algorithmes 

Tout au long de ce texte, je vais parler d’algorithmes. Mais je vais utiliser une définition large de ceux-ci, que j’ai explicitée dans mes précédents articles, et qu’on retrouve aussi chez certains auteurs, comme Yuval Noah Harari[2] : un algorithme est une série d'instructions codifiées, transmissibles, pour faire quelque chose. Ainsi, une recette de cuisine est un algorithme, de même que les processus, les techniques, les stratégies ("business plan") et les pratiques culturelles (savoir-faire, rituels, …). La fabrication des protéines au sein des cellules aussi suit un algorithme, encodé dans l’ADN, et transmissible. Les gènes sont le support de stockage et de transmission d’algorithmes, de même que le sont les textes (comme les livres de cuisine) ou le cerveau. Il y a donc, depuis l’origine de la vie, des algorithmes dont le support est biochimiques, puis sont venus des algorithmes avec un support mémétiques (un terme proposé par Richard Dawkins pour désigner des éléments culturels qui se reproduisent et se transmettent, un peu comme les gènes), et depuis quelques décennies, des algorithmes avec un support numérique. 

Un point important est que le même algorithme peut être encodé sur des supports différents. Ainsi, peu importe qu’un plat cuisiné soit fabriqué par un humain en suivant la recette d’un livre ou par des machines dans une usine : le résultat est similaire.  Dans le même ordre idée,  des pratiques comme  conjuguer, disserter, coder, diagnostiquer, conduire, ou traduire sont des algorithmes, relativement codifiés, qu’un humain apprend…  qui sont toutes désormais réalisables par des machines, souvent mieux que les humains. 

Quel que soit le support, les algorithmes ont des caractéristiques communes : ce sont des formes compressées de l'information, normatives, où les détails ne sont pas encodés. Il y a une variabilité inhérente lorsque les instructions sont exécutées (deux plats suivant la même recette de cuisine ne sont jamais identiques). Et surtout, l'information algorithmique peut évoluer, par mutation, fusion ou combinaison. Les variantes apportant un avantage sont sélectionnées, et peuvent être transmises à une génération suivante.[3]

Ce mécanisme évolutionniste s'applique à tous les supports d'algorithme (biochimique, mémétique ou numérique), mais, et c’est là un facteur fondamental, c’est beaucoup, beaucoup plus rapide avec les algorithmes stockés numériques qu’avec les autres formes.  C’est ce qui explique en premier leur extension rapide.

L'explosion des données : le carburant de l'IA

Nous vivons dans un monde où une centaine de milliards de microprocesseurs s'activent en continu pour exécuter des algorithmes qui accompagnent la quasi-totalité de nos actions quotidiennes. Ils jouent un rôle d'accélérateurs crucial dans la diffusion des technologies numériques et de l'IA (Intelligence artificielle), notamment parce qu'ils produisent ce qui va alimenter celle-ci : de la donnée, en particulier du contenu numérique et des traces numériques pour tout ce que nous faisons.

Alors que jusqu'à récemment, le développement de ces algorithmes était réalisé par des programmeurs humains - impliquant des cycles de développement de plusieurs mois ou années malgré la facilité permise par le numérique de réutiliser du code - ils sont maintenant construits automatiquement par des machines, beaucoup plus rapidement et avec des performances inégalées. C'est ce qu'on appelle l'apprentissage automatique, ou Machine Learning en anglais, et de plus en plus simplement "IA".

En fait, la définition de l'IA a considérablement évolué depuis la création de ce concept (programmation logique dans les années 60, puis systèmes experts, big data, deep learning...), et de nombreuses définitions coexistent encore aujourd'hui. Je définirai l'IA comme un ensemble de techniques (algorithmes) pour construire des algorithmes qui entraînent des algorithmes, qui à leur tour exécutent des tâches complexes (conduire, disserter, créer). Par exemple, l’IA Generative (comme ChatGPT) est issue de savoir-faire en traitement de données et apprentissage automatique (ie un algorithme), pour entraîner (via un algorithme) un réseau de neurones à générer du texte ou des images (encore des algorithmes). De même, les IA de recommandation utilisent l'expertise développée par des entreprises comme Facebook pour créer des algorithmes de traitement de données qui déterminent quelles publications apparaissent dans le fil d'actualité d'un utilisateur.

Pour apprendre, les machines font un peu comme les humains : elles font des exercices. La technique la plus répandue lorsqu'on dispose de données étiquetées est appelée Apprentissage Supervisé. Par exemple, pour entraîner une machine à reconnaître des lettres manuscrites, on lui présente des milliers d'images de lettres en lui demandant de les identifier parmi les 26 lettres de l'alphabet, et on note la proximité entre la réponse fournie et la lettre effectivement écrite, connue par la machine-enseignante :  pour une lettre 'L', la réponse 'I' sera mieux notée que 'W', car visuellement plus proche. Au début de l'apprentissage, la machine-apprenante répond au hasard, mais progressivement, elle identifie les caractéristiques discriminantes dans les images - par exemple, elle apprend que la lettre 'L' se caractérise par un trait vertical joint à un trait horizontal en bas à droite.

Ces algorithmes d'apprentissage supervisé sont omniprésents dans notre quotidien : ils permettent aux machines de reconnaître des objets dans une image, d'identifier des phonèmes dans un enregistrement audio, de détecter des maladies dans des images médicales, etc. Ce sont eux qui, exploitant nos traces numériques, parviennent à comprendre nos préférences, à anticiper ce qui nous fait réagir, "liker" une publication ou rester quelques secondes supplémentaires sur une page ou une vidéo. Ils constituent le cœur des systèmes de recommandation. L'abondance croissante de ces traces numériques permet de développer des algorithmes toujours plus nombreux et performants, qui seront davantage utilisés, générant à leur tour plus de données... créant ainsi une boucle de renforcement exponentielle.

L’usager, acteur du  renforcement

Ces algorithmes de recommandation ont pour objectif de maximiser la dépendance des usagers. En analysant finement nos comportements, ils apprennent à capter notre attention, souvent en stimulant les circuits de récompense (dopamine) de notre cerveau via des notifications, des interactions sociales et un flux de contenu personnalisé. Ils incitent ainsi à une utilisation fréquente et prolongée, générant un flux constant de données comportementales qui alimentent en retour leur amélioration. 

Cette boucle de rétroaction, exacerbée par les réseaux sociaux, amplifie également les biais cognitifs. Les algorithmes vont chercher à créer de l’intimité avec l’utilisateur, en adaptant leur tonalité et leur style de communication en fonction des réponses et des comportements, renforçant ainsi le sentiment de connexion personnelle, poussant l'utilisateur à partager des informations. En retour, ces données enrichissent les bases de données des algorithmes, leur permettant de perfectionner encore davantage leurs capacités de recommandation et d'interaction. Ce processus crée une relation symbiotique où l'utilisateur, tout en étant nourri par les suggestions et les interactions de l'algorithme, fournit les informations nécessaires à son amélioration continue. [4]

Ce cycle auto-renforçant – où l'addiction des usagers génère les données qui perfectionnent les outils qui génèrent encore plus d'engagement – est un puissant moteur de l'efficacité et de l'emprise croissante de ces IA.

Les machines peuvent apprendre sans données 

L'apprentissage par renforcement représente une autre approche fondamentale où la machine apprend une séquence d'actions pour atteindre un objectif donné, sans nécessiter de données. Dans ce paradigme, la machine tente différentes séquences d'actions qui sont évaluées par une fonction de récompense. Les séquences qui se rapprochent de l'objectif visé sont renforcées, permettant à l'algorithme d'optimiser progressivement sa stratégie. 

L'exemple emblématique d'AlphaGo Zero illustre parfaitement cette puissance : ce système a appris le jeu de Go simplement en jouant contre lui-même, sans aucune donnée humaine préalable. Non seulement il a atteint un niveau surhumain, mais il a également découvert des stratégies inédites que les maîtres humains ont ensuite adoptées. L'apprentissage par renforcement a aussi démontré sa capacité à maîtriser des environnements encore plus complexes, y compris des jeux vidéo de stratégie où l’information est incomplète, ouvrant la voie à des applications plus vastes.

On retrouve ainsi cette technique en robotique, ce qui permet à des robots d'apprendre des tâches complexes comme la manipulation fine d'objets ou la navigation autonome dans des environnements inconnus. Elle est également utilisée pour l'optimisation de systèmes complexes, le contrôle de processus industriels, ou à développer des stratégies de trading algorithmique adaptatives. Son essor s’explique notamment par la disponibilité de d’algorithmes de simulation du monde réalistes, permettant d'entraîner les agents sur des millions d'interactions virtuelles, accélérant considérablement l'apprentissage.

Cette capacité à générer des stratégies performantes à partir de l'interaction directe avec un environnement, sans dépendre massivement de jeux de données étiquetés par des humains (qui sont coûteux et parfois impossibles à obtenir), est l'une des clés expliquant en partie le développement exponentiel récent de l'IA. Elle ouvre la porte à des systèmes capables de dépasser les capacités humaines dans des tâches de décision séquentielle complexes, en découvrant des solutions contre-intuitives et optimisées

Les machines comprennent le langage des humains

Un moteur essentiel de l'accélération exponentielle récente de l'IA réside dans sa capacité à comprendre, générer et adapter le langage humain, la clé même de notre savoir accumulé. Cette percée est incarnée par les "grands modèles de langage" (Large Language Models, ou LLM). Entraînés sur des quantités phénoménales de textes – englobant une part considérable de la connaissance humaine écrite disponible numériquement – ces modèles apprennent via des exercices générés à partir de ce corpus, par exemple de prédire des mots manquants. Ce faisant, ils assimilent non seulement la grammaire et les faits, mais aussi les subtilités du style, du raisonnement et, crucialement, la structure implicite de ce vaste corpus de savoir. Cette maîtrise brute est ensuite affinée par des techniques d’apprentissage par renforcement avec feedback humain, où des évaluateurs humains guident le modèle vers plus de pertinence, d'utilité, de sécurité et d'alignement avec des valeurs.

Au-delà de cette phase d'entraînement, cette capacité à traiter le langage et à puiser dans la connaissance humaine intégrée permet aux IA d'accomplir une gamme étendue et sans cesse croissante de tâches : du résumé automatique de longs documents à la traduction instantanée, en passant par la réponse quasi-instantanée à des questions complexes en puisant dans ce savoir, la génération de contenu, l'assistance au codage, et l'alimentation de chatbots conversationnels. L'accès à cette connaissance devient ainsi fluidifié pour les humains, qui peuvent simplement "demander" à l'IA.

C'est notamment dans ces interactions conversationnelles que les algorithmes cherchent activement à créer une forme d'intimité, adaptant leur tonalité et leur style pour renforcer un sentiment de connexion, ce qui peut encourager le partage d'informations et alimenter leur perfectionnement continu.

Ainsi, la combinaison de la maîtrise du langage (permettant l'accès et la restitution du savoir humain écrit), de l'affinement par le feedback humain, de la multiplication rapide des applications (résumé, traduction, Q&A, chatbots...) et de l'apprentissage continu via l'interaction utilisateur, explique la dynamique exponentielle spectaculaire observée dans le développement récent de l'IA.

Les machines parlent, dessinent, agissent

Les IA deviennent de plus en plus multimodales, capables désormais de traiter et de générer non seulement du texte, mais aussi d'interagir par la parole et de créer ou analyser des images et des vidéos avec une sophistication croissante. Parallèlement, lesprogrès techniques catalysent le développement de modèles plus compacts mais toujours plus performants, permettant leur intégration directe dans nos smartphones, objets connectés, et accélérant l'automatisation des processus d'entreprise. Cette capacité s'étend à la génération de contenus créatifs, brouillant les lignes entre création humaine et artificielle. 

Une autre tendance forte est l'investissement croissant dans les robots humanoïdes, conçus pour apprendre et agir dans nos environnements, ce qui ouvre la perspective d'une capture de données et d'un apprentissage des savoir-faire physiques à une échelle inédite. 

Tout ceci alimente une puissante boucle de rétroaction auto-amplificatrice : chaque déploiement génère plus de données, qui améliorent les modèles, qui ouvrent de nouveaux usages, qui accélèrent l'adoption, relançant le cycle. Nous assistons potentiellement à l'émergence d'une IA capable de rendre l'essentiel des connaissances et savoir-faire humains numérisés instantanément accessibles et applicables, promettant une transformation encore plus rapide et profonde de nos sociétés.

Les machines apprennent à raisonner pour atteindre un objectif 

L'évolution exponentielle de l'IA intègre désormais une capacité clé : le raisonnement orienté vers un objectif. Ce n'est pas une simple amélioration, mais un saut qualitatif qui accélère encore sa trajectoire. Inspirées par la décomposition des problèmes complexes, les machines apprennent, notamment via les "chaînes de raisonnement" (Chain of Thought), à séquencer des étapes logiques pour résoudre des problèmes (maths, logique, code). Ce processus d'apprentissage par renforcement leur permet de s'attaquer à des tâches de plus en plus complexes dans divers domaines.

Cette capacité de raisonnement transforme les LLM en agents autonomes. Capables d'utiliser des outils externes (web, code, bases de données), ils peuvent planifier et exécuter des actions pour atteindre des buts donnés, automatisant des tâches (recherche, rédaction, planification) et devenant des moteurs de la transformation exponentielle du travail et des services. Ils dépassent souvent les capacités humaines sur des tâches cognitives spécifiques (synthèse, analyse complexe, résolution de problèmes spécialisés[5]

Les IA sont notamment  capables d’écrire leur code, pour améliorer les performances ou étendre les usages - encore une boucle de rétroaction. Cependant, les agents  IA manquent de curiosité intrinsèque, de capacité à poser les bonnes questions ou d'intuition critique humaine. Leur impact potentiel reste néanmoins considérable.

Fascination des ingénieurs

L'accélération du développement de l'IA est aussi catalysée par la fascination intellectuelle qu'elle exerce sur les ingénieurs. Ils y voient un défi technique et une quête pour reproduire la pensée, culminant souvent dans la recherche de l'AGI (intelligence artificielle générale) : une IA au raisonnement humain, considérée comme l'ultime frontière technologique.[6] 

Cette passion collective incarne un dilemme moderne, oscillant entre Prométhée apportant le progrès et Icare risquant la chute par ambition. De telles aspirations rendent un renoncement volontaire à cette quête peu probable, malgré les appels à la prudenceéthique.

Un complexe militaro-numérique

Si les avancées technologiques intrinsèques expliquent une grande partie du développement exponentiel de l'IA, un autre facteur majeur ne peut être ignoré : l'intelligence artificielle est devenue un instrument fondamental de pouvoir, et cette fonction alimente en retour sa propre accélération.

Une illustration frappante est la boucle de rétroaction systémique entre l'IA et le domaine militaire. Les investissements publics massifs en recherche et développement, notamment via des agences comme la DARPA aux États-Unis, catalysent l'innovation de pointe en IA. Ces avancées technologiques essaiment ensuite dans l'écosystème commercial : des startups spécialisées émergent, souvent financées ou rachetées par les géants technologiques (Google, Microsoft, AWS, etc.) qui possèdent l'infrastructure et les données pour déployer ces algorithmes à grande échelle. Finalement, ces technologies reviennent renforcer la puissance des États qui les ont initialement stimulées, sous forme de systèmes plus sophistiqués pour l'armement, la logistique, le renseignement ou la cyberguerre, tout en augmentant leur influence géopolitique (soft power).

Cette dynamique dépasse largement le seul financement public initial. Elle s'est au cœur d’ un véritable complexe militaro-numérique, où les géants de la tech et des entreprises spécialisées comme Palantir ou Anduril collaborent et investissent directement dans des applications de défense et de sécurité. Cette synergie est facilitée par une certaine proximité idéologique entre les pôles technologiques comme la Silicon Valley et les institutions de défense, mais aussi par le phénomène des "portes tournantes" ("revolving doors"). La circulation constante de personnel clé – experts en IA, cadres dirigeants, hauts responsables militaires – entre les laboratoires universitaires, les GAFA, les agences gouvernementales et les entreprises de défense assure un transfert continu de compétences, d'influence et favorise un alignement stratégique des objectifs.

Ainsi, la quête de supériorité stratégique, militaire et économique par les États et les grandes entreprises constitue un puissant moteur, injectant des ressources considérables et créant une demande constante pour des IA toujours plus performantes. Cette dimension "instrument de pouvoir" est donc indissociable de la dynamique exponentielle de l'IA, créant un cycle où la puissance appelle la technologie, et la technologie renforce la puissance.

Perspectives

Voici quelques directions auxquelles pourraient conduire les boucles de renforcement des algorithmes numériques précédemment citées.  

Vers la suprématie algorithmique

L'histoire montre que la maîtrise des algorithmes – qu'il s'agisse de pratiques guerrières, d'organisation sociale, ou de techniques de production – confère un avantage décisif aux nations. L'exemple du Portugal au XVe siècle est éclairant : en systématisant la recherche et le développement de la navigation hauturière (tables, instruments, cartographie, formation), il a acquis une suprématie algorithmique lui permettant d'imposer sa domination. Les conséquences furent une richesse sans précédent pour l'Europe, mais dévastatrices pour les territoires dominés.[7]

Aujourd'hui, l'intelligence artificielle représente une nouvelle forme, potentiellement bien plus puissante, de cette suprématie. Les nations et les entités qui maîtrisent ces technologies acquièrent un avantage décisif dans l'optimisation industrielle, leperfectionnement militaire, le contrôle informationnel, l'analyse prédictive et l'accélération de la recherche. Ces algorithmes d'IA deviennent des instruments de puissance qui transforment les rapports de force internationaux. C'est dans cette course à la suprématie algorithmique que se cristallise la rivalité géopolitique intense, notamment entre les États-Unis et la Chine, chacune cherchant à dominer les technologies qui définiront la hiérarchie mondiale du XXIe siècle, prolongeant et intensifiant la dynamique de l'IA comme instrument de pouvoir.

Les guerres au temps de l’IA

La quête de cette suprématie conduit à une transformation radicale du champ de bataille. L'IA permet l'émergence de systèmes d'armes de plus en plus autonomes, comme les essaims de drones ou les robots de combat, capables de prendre des décisions tactiques en temps réel, à une vitesse surpassant les capacités humaines. En complément, les capacités de raisonnement avancées des IA militaires leur permettent d'élaborer des stratégies complexes, de coordonner des attaques multi-domaines (terre, air, mer, espace, cyber) et d'anticiper les actions adverses en exploitant d'immenses flux de données de renseignement. 

Cette autonomisation croissante soulève des questions éthiques fondamentales sur le contrôle humain significatif et risque d'accélérer dramatiquement le tempo des conflits, potentiellement au-delà de notre capacité de compréhension et de supervision. Ce risque est exacerbé par l'incertitude, évoquée plus tôt, quant à notre capacité à maîtriser pleinement les chaînes de raisonnement et les objectifs des agents autonomes complexes auxquels on délègue des décisions létales.

Vers la modification du vivant

Parallèlement, la puissance algorithmique de l'IA s'étend au cœur même du vivant. En appliquant des techniques similaires à celles utilisées pour maîtriser le langage (prédire le mot suivant, identifier des structures profondes), mais entraînées sur les séquences génétiques (ADN) de milliers d'organismes, l'IA révolutionne la biologie. Combinée à des outils comme CRISPR pour la modification de l'ADN, et forte des avancées spectaculaires en prédiction de la structure[8] et de la fonction des protéines, elle ouvre des perspectives vertigineuses. D'un côté, des promesses immenses : conception de médicaments ultra-ciblés, développement de cultures résistantes au changement climatique, création d'enzymes pour la dépollution ou la capture de CO2. De l'autre, des risques existentiels : possibilités de manipulation génétique à visée transhumaniste ou eugénique, et conception potentielle d'agents pathogènes synthétiques d'une dangerosité inédite. La suprématie algorithmique s'étend ainsi potentiellement à la maîtrise et à la reconfiguration du code même de la vie.

La transformation du travail

L'impact systémique de l'IA ne se limite pas aux sphères militaire et biologique ; il reconfigure profondément nos structures sociales et économiques. Les professions centrées sur le traitement de l'information et certaines tâches cognitives routinières sont directement menacées par l'automatisation. La gestion algorithmique s'étend dans le monde du travail, optimisant les processus mais rendant moins efficaces les formes traditionnelles de contestation comme la grève. Plus largement, les mécanismes de contre-pouvoir (syndicats, associations, médias critiques) peuvent être affaiblis, car les décisions clés, de plus en plus techniques et opaques, échappent au débat public. Cette reconfiguration tend à favoriser une concentration accrue des ressources, des compétences et donc du pouvoir, accentuant les disparités socioéconomiques entre ceux qui conçoivent et contrôlent ces technologies et ceux qui les subissent ou en sont exclus.

L'émergence d'agents malveillants, intentionnels ou accidentels

Au-delà de ces applications stratégiques, l'autonomie et les capacités croissantes de l'IA font émerger une autre menace sérieuse : celle des agents malveillants. Certains pourraient être conçus intentionnellement pour nuire : des agents hackeurs menant des cyber-attaques auto-apprenantes et adaptatives ; des agents biochimistes facilitant la création d'armes biologiques ; des agents coordonnés attaquant simultanément des infrastructures critiques ; ou encore des agents de manipulation sociale utilisant desdeepfakes et des stratégies de désinformation pour frauder, cliver et déstabiliser les sociétés à grande échelle.

Plus fondamentalement, et peut-être plus insidieusement, des agents peuvent devenir dangereux même sans intention malveillante initiale. C'est le problème du mésalignement, illustré par la parabole des trombones de Nick Bostrom[9] : une IA programmée pour optimiser un objectif unique et étroit (produire des trombones) pourrait, dans sa quête d'efficacité absolue, finir par convertir toutes les ressources disponibles, y compris celles vitales pour nous, en trombones. Cette dynamique résulte de boucles de rétroaction auto-amplificatrices où l'agent s'améliore pour atteindre son but, acquiert plus de ressources pour mieux s'améliorer, etc., ignorant toutes les valeurs et contraintes humaines non explicitement codées. 

Même une IA "bien intentionnée" mais poursuivant un objectif mal spécifié peut ainsi devenir une menace existentielle par simple optimisation extrême. Cette crainte est partagée par des chercheurs éminents (G. Hinton[10], Y. Bengio[11]), qui redoutent des effets cascades imprévisibles ou l'émergence d'agents développant des stratégies de tromperie ou d'auto-préservation pour accomplir leurs tâches, voire d'une superintelligence dont les buts divergeraient fatalement des nôtres. Si ce risque existentiel fait débat[12], il découle logiquement des capacités d'autonomie et d'optimisation qui sont au cœur du développement actuel de l'IA.

Risques de dérives autoritaires

Cette concentration du pouvoir technologique ouvre la porte à des dérives politiques inédites. La menace d'un "coup d'État numérique" émerge, où le contrôle s'acquiert non par les armes, mais par la maîtrise des systèmes d'information et de décision qui gouvernent une société, comme l'illustre potentiellement l'initiative DOGE aux USA.  

Dans ce pays, cette tendance est alimentée par certaines idéologies influentes au sein de l'élite technologique (incarnées par des figures comme Peter Thiel ou Marc Andreessen)[13], souvent critiques vis-à-vis des processus démocratiques jugés lents ou inefficaces, et promouvant une gouvernance plus "rationnelle", à la façon d'une entreprise, et optimisée par l'IA. Cela pourrait mener à des formes de techno-féodalisme ou de fascisme numérique. 

Plus généralement, l'IA pose de multiples défis aux démocraties : propagation de désinformation synthétique, polarisation via les bulles de filtrage, concentration du pouvoir technologique privé, surveillance et biais dans les systèmes publics, érosion de la délibération citoyenne et de la responsabilité politique.

L'IA : outil de contrôle dans un monde en crise ?

L'IA impose un ordre : celui de ses modèles appris, dictés par ses concepteurs. Omniprésente, elle impose sa rationalité calculatoire et risque de remplacer la délibération collective, fondement démocratique.

Cette montée en puissance coïncide avec une crise du modèle de croissance historique et une perte de confiance, créant un contexte où la promesse d'ordre et d'efficacité de l'IA devient séduisante pour des gouvernements cherchant à gérer des tensions sociales croissantes face aux crises écologiques et à la raréfaction des ressources. L'IA pourrait alors devenir l'instrument privilégié pour maintenir le contrôle, potentiellement au profit de minorités, en rationnant les ressources et en neutralisant les contestations. Les citoyens risqueraient d'être pris dans un étau : soumis à une gouvernance algorithmique accrue tout en étant économiquement fragilisés par l'automatisation, le tout sans débat démocratique sur ces transformations fondamentales.

Des freins au développement de l’IA ? 

Face à ces perspectives et aux enjeux que le développement exponentiel de l'IA soulève, peut-on envisager des freins significatifs ? Il y a-t-il des limites physiques ou technologiques à cette course effrénée. Certes, l'entraînement et l'usage de l'IA consomment d'énormes quantités d'énergie, d'eau et de matériaux critiques. Un plateau technologique pour les architectures actuelles ou les limites de la miniaturisation des puces sont envisageables. L'épuisement des données d'entraînement de qualité est aussi évoqué.

Cependant, ces freins potentiels semblent insuffisants à compenser les boucles de rétroactions positives citées dans ce texte : les gains d'efficience algorithmique et matérielle sont eux aussi exponentiels, de nouvelles architectures émergent, les techniques d'augmentation de données et l'accès futur au monde physique via des capteurs et robots promettent de nouvelles sources d'apprentissage. Même des crises (approvisionnement, finance) tendent historiquement à restructurer plus qu'à stopper une vague technologique de fond. Si des ralentissements conjoncturels sont possibles, aucun obstacle technique ou matériel fondamental ne me semble pour l'instant capable d'enrayer durablement la progression systémique vers une IA toujours plus puissante.

La régulation pourrait-elle alors constituer un frein efficace ? Des initiatives existent, comme l'AI Act européen[14] . Cependant, leur impact risque d'être limité face à plusieurs dynamiques puissantes. La compétition acharnée pour la suprématie algorithmique, notamment entre les États-Unis (qui privilégient désormais l'innovation sans entrave) et la Chine, pousse à contourner ou minimiser les contraintes. Les géants de la tech déploient un lobbying intense et réduisent même parfois leurs équipes dédiées à l'éthique et la sécurité. 

Le décalage fondamental entre le temps long de l'élaboration réglementaire et la vitesse exponentielle du développement technologique rend aussi difficile la mise en place de garde-fous réellement contraignants et adaptés en temps utile. Une régulation globale et suffisamment forte pour freiner la trajectoire actuelle apparaît donc, dans ce contexte, peu probable.

Enfin, une résistance sociétale massive, un néo-luddisme moderne face aux craintes de remplacement massif d'emplois (y compris qualifiés) et aux bouleversements sociaux, pourrait-elle inverser la tendance ? Si des protestations et des inquiétudes légitimesémergent, elles se heurtent à une intégration déjà profonde et souvent invisible des algorithmes dans nos vies quotidiennes, et une méconnaissance de leur fonctionnement. Cette omniprésence, largement acceptée ou subie jusqu'ici, suggère que même une opposition croissante aura du mal à freiner significativement une vague technologique aussi puissante et globalisée, dont les bénéfices immédiats pour les utilisateurs et la force d'inertie sont considérables.

Le syndrome de la Reine rouge 

La question qu’on peut se poser à ce stade est : que peut-on faire pour limiter les impacts négatifs de cette dynamique exponentielle qui semble rencontrer peu d'obstacles fondamentaux – ni physiques, ni régulatoires, ni sociétaux à l'échelle globale ?  Question complexe, qui demanderait un article complémentaire à celui-là, dont le but était surtout de démystifier ces technologies.  Je vais quand même partager quelques unes de mes réflexions.

D'abord, il est impératif de poursuivre et d'intensifier tous les efforts possibles pour encadrer et réglementer le développement de l'IA, en soutenant les initiatives citoyennes et les voix qui réclament une plus grande transparence et un contrôle démocratique.  Réguler les IA de recommandation est en particulier indispensable.  

Toutefois, les perspectives d'une régulation forte et d'une résistance sociétale suffisante pour freiner la trajectoire globale semblent actuellement limitées – un constat qui rappelle les défis rencontrés dans la lutte contre le changement climatique –,  il nous faut chercher activement des trajectoires de "moindre mal", de définir des garde-fous, même imparfaits, et de lutter pour chaque espace de contrôle et d'orientation possible.

C'est dans ce tableau complexe qu'émerge l'urgence pour les citoyens de comprendre les transformations en cours, et prendre conscience de leurs implications profondes. Pour les Européens en particulier, une réaction est indispensable. Nous sommes victimes du syndrome de la Reine Rouge :   une course technologique mondiale effrénée, où nous devons accélérer constamment pour maintenir notre position relative face aux géants américains et chinois, qui redoublent eux-mêmes d'efforts. 

L'enjeu est double et d'égale importance : d'une part, la compétition économique et stratégique mondiale, et d'autre part, la résilience face à la contraction énergétique et aux bouleversements climatiques. Dans ce contexte où les tensions sociales et géopolitiques menacent de s'intensifier, la maîtrise de l'intelligence artificielle devient un levier stratégique de gouvernance, un facteur déterminant de résilience collective et l'instrument potentiel du maintien – ou de la transformation délibérée – de notre modèle social. Ne pas développer et maîtriser cette technologie selon nos propres termes, c'est risquer non seulement la dépendance économique, mais aussi de réduire la capacité de piloter notre société face à ces crises systémiques, et potentiellement de se voir imposer des solutions technologiques de contrôle ou de gestion de crise conçues ailleurs et répondant à d'autres intérêts.

Maîtriser les trajectoires 

L'alternative n'est donc pas de refuser le développement de l'IA – ce serait à mon avis illusoire et nous reléguerait à un statut de vassal numérique. L'enjeu est plutôt de maîtriser cette trajectoire. Cela passe notamment par un investissement massif et coordonné dans la formation et dans les capacités de développement d’algorithmes IA en Europe, en privilégiant les approches open source et distribuées. C'est avec une augmentation de l’effort pour réguler, une voie réaliste pour conserver une marge de manœuvre, orienter autant que possible le développement selon nos valeurs, et permettre une appropriation plus large et démocratique de ces outils qui redéfinissent déjà notre présent et façonneront notre avenir.

Parallèlement à ces impératifs de maîtrise technologique et de régulation, l'ampleur des transformations induites par l'IA exigera une adaptation profonde de nos sociétés face à une automatisation accrue. Si nous réussissons à orienter l'IA, elle n'en modifiera pas moins radicalement le paysage de l'emploi et la nature même du travail. Il devient donc essentiel d'anticiper ces bouleversements et d'explorer proactivement des mécanismes de résilience sociale et de redistribution, comme la mise en place d'un revenu minimum universel, afin d'assurer la cohésion sociale et de permettre à chacun de trouver sa place dans ce nouveau paradigme. Les modalités de cette adaptation sociétale, tout comme celles de la gouvernance de l'IA, restent toutefois à définir… et pourraient faire l’objet d’un prochain article.

Ce séminaire peut également être visionné sur notre chaîne YouTube ici

[1]  Mes travaux dans le cadre de l'Institut Momentum : De l'accélération des algorithmes (2016), et Information versus Effondrement, comment tout ne va pas s'effondrer (2018). Dans un cadre professionnel :  Darwinism in the Information Space | Medium (2020) 

[2]  Yuval Noah Harari, Homo Deus. Une brève histoire de l'avenir (Albin Michel, 2015) et Nexus. Une brève histoire des réseaux d'information, de l'âge de pierre à l'IA (Albin Michel, 2024). 

[3]  Ce processus est parfois appelé "darwinisme universel”. J’en parle dans mes articles sus-cités. Voir aussi Darwinisme universel — Wikipédia 

[4]  L’importance délétère des algorithmes de recommandation est bien documentée.  On peut se référer par exemple au livre “La Dictature des Algorithmes” de Jean-Lou Fourquet et Lê Nguyên Hoang (2014) 

[5]  La comparaison des performances IA vs Humain est un sujet  de débat, en dehors du scope de cet article. Nous nous contenterons d’observer qu’il existe des benchmarks, certes incomplets et parfois discutables, mais nombreux et convergents dans leurs conclusion, comme GPQAGAIA ou Humanity’s Last Exam

[6]  Ces réflexions sont basées sur mes observations, et la lecture d’interview comme celle de Liang Wenfeng, le  PDG de DeepSeek 

[7]  J’ai pris cet exemple de livre de Jacques Blamont “Le Chiffre et le Songe - La révolution scientifique” (2018)

[8]  Sujet du prix Nobel de Chimie 2024 à Demis Hassabis et John Jumper

[9]  L'horreur existentielle de l'usine à trombones. - YouTube

[10]  ex: Geoffrey Hinton, pionnier de l’IA, quitte Google et dit « regretter » son invention

[11]  ex: Yoshua Bengio: « Aujourd’hui, l’intelligence artificielle, c’est le Far West ! Nous devons ralentir et réguler »

[12]  ex: Yann Le Cun, director at Meta: 'The very idea of wanting to slow down AI research is akin to a new form of obscurantism'

[13]  Lire l'excellente série : Les Architectes du CHAOS : les dessous du projet Trump | #PAUSE

[14]  Loi sur l'intelligence artificielle de l'UE - Développements et analyses