L'IA telle qu’elle se développe est le produit d’une guerre de classe et d’une lutte interne à la bourgeoisie. Mais elle se construit sur des avancées scientifiques réelles, qui pourraient sans doute être utilisées autrement. La relation entre technique et capital est complexe et mouvante, et tracer des perspectives politiques justes impose de l'analyser en profondeur..
Dans mon secteur de travail, l’enseignement supérieur et la recherche, l’idée qu’il va falloir s’adapter aux avancées de l’intelligence artificielle (IA) est devenue un lieu commun. À chaque période d’examen, les salles de café résonnent des complaintes sur les étudiant·es qui donnent leurs exercices à ChatGPT et recopient les réponses sans les comprendre. L’IA court-circuite l’apprentissage. Pas seulement parce que les étudiant·es n’apprennent jamais à faire ce que la machine fait à leur place ; mais surtout parce qu’iels se disent, avec une certaine lucidité, qu’apprendre à faire ce que la machine sait désormais faire toute seule (ou presque) risque de ne pas valoir grand-chose sur le marché du travail de demain.
L’IA va profondément transformer la société, ou plus exactement, elle va être utilisée pour la transformer. Car la technique, si elle n’est jamais neutre, n’est pas non plus douée d’une volonté propre. L’IA est un vaste ensemble de techniques dont on peut, d’un point de vue scientifique, admirer les progrès ; mais ChatGPT, MidJourney, Sora et leurs avatars sont des produits, développés par des capitalistes en suivant l’invariable aiguillon du profit. Est-il possible, dans les connaissances scientifiques qui ont permis le développement de ces produits, d’extraire quelque chose de réellement utile ? Ce qui est certain, c’est qu’il n’y a pas que les enseignant·es qui vont devoir s’adapter : la gauche doit anticiper ce que les capitalistes peuvent faire de ces outils et poser la question de ce que la classe travailleuse pourrait en faire.
Quelques repères
Le terme d’« intelligence artificielle » est vieux et vague. Il a émergé dans les années 1950, et désigne depuis cette époque à peu près tout système informatique qui fait des choix d’une manière relativement autonome. En réalité, les récentes avancées qui ont défrayé la chronique sont celles d’un ensemble de techniques bien plus spécifiques, l’apprentissage profond (ou deep learning), fondé sur les réseaux de neurones artificiels.
Depuis les années 1950, la recherche en IA s’est développée autour de deux approches concurrentes : l’IA « symbolique » et l’IA « connexionniste ». La première, largement dominante historiquement, manipule des concepts précis, régis par des règles non ambiguës. Un traducteur automatique, par exemple, sera programmé à l’aide d’un immense dictionnaire – et dès qu’un peu d’analyse du contexte est nécessaire pour traduire un mot, les résultats sont très mauvais. Et c’est avec cette logique que, jusqu’à il y a peu, la plupart des objets et programmes de notre quotidien étaient conçus : avec de très longs morceaux de code, truffés de « si » et de « tant que ».
L’approche connexionniste, elle, ambitionne d’imiter le fonctionnement physique d’un cerveau : une très grande quantité de « neurones », qu’on cherche à connecter entre eux de la bonne manière, pour que le réseau de neurones ainsi construit remplisse les fonctions désirées. Un réseau de neurones est d’abord construit de manière (plus ou moins) aléatoire, puis est amélioré « à tâtons », en l’entraînant sur un grand nombre de situations et de données qu’on veut le voir traiter correctement. Un exemple d’algorithme d’entraînement 1 : on prend un réseau de neurones, on génère au hasard plusieurs versions légèrement modifiées de lui-même, on les teste sur la même tâche, on sélectionne la version qui s’en sort le mieux, et on recommence.
Jusqu’aux années 2000, l’approche connexionniste a enchaîné les déceptions. Le boom auquel nous assistons a démarré au début des années 2010, lorsque de nouvelles techniques d’apprentissage ont permis d’exploiter les quantités énormes de données qui avaient, entre-temps, été rendues disponibles par le développement d’Internet : c’est l’arrivée du deep learning. Celui-ci a permis le développement rapide d’IA pour résoudre des problèmes anciens, comme la reconnaissance d’images 2, mais aussi d’exécuter des tâches qu’on peut qualifier de créatives, comme générer une image – on parle d’IA générative, et de grand modèle de langage lorsque l’objet généré est du texte (en anglais large language model, LLM).
GPT est le représentant le plus célèbre de ces LLM, voire des IA génératives. Fondamentalement, il fonctionne comme le correcteur automatique de votre téléphone : à partir d’une séquence de mots, il choisit le mot le plus susceptible de suivre, au regard de l’entraînement qu’il a reçu. Et il recommence, jusqu’à avoir généré un texte entier. D’où sa tendance inévitable à inventer (dans le jargon, on dira halluciner) certaines informations : ce que l’IA considère comme vrai est essentiellement ce qu’elle juge, d’après ses données d’entraînement, plausible3).
Le deep learning repose donc sur trois choses.
• D’abord, un entraînement, nécessairement long et intense (et coûteux en énergie).
• Ensuite, un système lui-même énorme : GPT-5 est construit sur un réseau de plusieurs centaines de milliers de neurones artificiels, qui nécessite 1 000 à 2 000 Go (un bon disque dur) pour être simplement stocké. Sur votre propre ordinateur, pour répondre à une requête, il faudrait plusieurs heures… et surtout une mémoire vive cent fois plus importante. C’est la raison pour laquelle toutes ces IA fonctionnent sur de grands serveurs auxquels nos requêtes sont envoyées par Internet. Les IA intégrées à des objets, sans connexion, sont beaucoup plus rudimentaires et le resteront probablement longtemps.
• Enfin, des données qui doivent être disponibles (et accaparées) en quantité gigantesque. C’est ce qui explique que le boom auquel nous assistons est celui de systèmes qui traitent et génèrent des types de données disponibles en grande quantité grâce à Internet : du texte, des images, des vidéos.
De ces aspects se déduisent deux limitations techniques : premièrement, le deep learning ne développe que des IA très centralisées, reposant sur des infrastructures énormes, que seuls de très gros acteurs peuvent construire et faire fonctionner. Deuxièmement, il donne de très mauvais résultats dès que les données manquent, ce qui est en particulier le cas pour toutes les formes de tâches manuelles. Une action aussi simple que saisir un verre, avec une pression assez forte pour qu’il ne glisse pas, et assez faible pour qu’il ne se brise pas, ne s’apprend pas avec des données disponibles sur Internet : les robots doivent s’entraîner en faisant eux-mêmes des tentatives répétées (comme un humain au cours de sa vie), ce qui est bien plus long et coûteux.
Ces deux limitations peuvent-elles être dépassées ? Pour la première, sans surprise, le capital s’en moque – il en est même très satisfait. Pour la deuxième, il s’agit en fait d’une question cruciale, pour les capitalistes comme pour nous : les avancées de l’IA resteront-elles cantonnées aux tâches cognitives, ou bien ce mur tombera-t-il, permettant un nouveau boom dans le domaine de la robotique ? Les paris sont ouverts, et les mises sont élevées.
Le marché de l’IA : barons de la Silicon Valley et Léviathan chinois
La première limitation a pour conséquence immédiate que l’IA générative, comme secteur de l’économie, est extrêmement concentrée : 63 % des revenus sont accaparés par 8 entreprises, et cette proportion grimpe à toute vitesse à mesure que la concurrence écrase les petits joueurs 4.
Sans surprise, le marché est un terrain d’affrontement privilégié entre les États-Unis et la Chine. A priori, les premiers dominent : 63 % est aussi la proportion des revenus empochée par des entreprises étatsuniennes. Mais ces chiffres sont en trompe-l’œil, car la Chine suit une stratégie différente, ancrée dans le long terme : les entreprises chinoises publient généralement leurs modèles et leurs jeux de données en accès libre, ce qui ralentit les revenus immédiats, mais crée un écosystème plus favorable pour continuer à développer de nouvelles technologies. Par ailleurs, les États-Unis se sont positionnés sur les formes d’IA les plus profitables ici et maintenant (notamment la génération automatique de code), tandis que la Chine parie sur celles qui sont plus embryonnaires – surtout en robotique. Elle est d’ores et déjà leader dans la construction des composants matériels essentiels pour robots, pour une raison simple : la plupart d’entre eux ont été développés pour l’industrie des véhicules électriques 5. L’issue de ce bras de fer dépendra donc largement de cette question ouverte : les applications de l’IA à la robotique deviendront-elles rentables, ou s’agit-il d’une simple bulle financière ?
Dans une moindre mesure, la question se pose pour l’ensemble du marché de l’IA, qui reste très spéculatif 6. Pour l’instant, la priorité des entreprises du secteur n’est pas de générer des dividendes, mais de persuader les investisseurs qu’elles en génèreront demain, pour maintenir ou faire grimper leur valeur boursière. Et cela apporte un éclairage important sur le type de produits développés.
Qui rêve d’un humain artificiel ?
Les investissements dans l’IA sont donc guidés par des critères qui tiennent de l’acte de foi : les capitalistes favorisent les formes d’IA qui présentent des caractéristiques les conduisant à penser, à tort ou à raison, qu’elles pourront devenir rentables. Et ces caractéristiques n’ont que très peu de rapport avec nos besoins réels. J’en identifie principalement deux.
La première est relativement rationnelle, du point de vue du capital : la capacité du produit à créer un besoin, jusqu’à se rendre indispensable. Les LLM excellent à ce petit jeu : en décembre 2024, soit deux ans après son lancement, 300 millions de personnes utilisaient déjà ChatGPT au moins une fois par semaine, un chiffre que Facebook avait mis huit ans à atteindre7.
L’autre caractéristique tient plus du fétichisme : il s’agit de la capacité d’un produit à résonner avec cette fascination humaine, largement répandue à travers les pays et les époques, pour les créations qui imitent les comportements et les facultés de notre espèce. Et à susciter cette fascination chez les consommateur·rices, dans le débat public et chez les investisseurs eux-mêmes.
Des automates du dieu Héphaïstos au pantin Pinocchio, les mythologies antiques et les contes populaires regorgent d’histoires où un inventeur ingénieux fabrique une créature qui se meut et pense comme un humain. Depuis les tout débuts de l’informatique, l’horizon ultime du développement des machines est défini par leur capacité à imiter l’humain – plus que par leur utilité. En 1950, Alan Turing prédisait que les machines seraient un jour capables de passer ce qu’il est désormais convenu d’appeler le test de Turing, c’est-à-dire d’imiter (par messages écrits) un interlocuteur humain si fidèlement que l’observateur ne peut plus dire s’il s’agit d’une machine ou d’un humain 8. Aujourd’hui, l’expression même d’« intelligence artificielle », au lieu d’autres termes plus précis, et les débats passionnés sur la nature de cette « intelligence » 9, montrent que cette fascination ne fait que s’exacerber.
Il n’est donc pas étonnant que ce soient les LLM, avec leur capacité tout à fait inutile mais tout à fait déroutante à nous singer, qui soient le produit roi de la course à l’IA. De la même manière, en robotique, tout particulièrement dans la stratégie chinoise, ce sont les humanoïdes qui accaparent désormais l’attention… alors que le bipédisme pose d’énormes difficultés techniques, et qu’il n’y a aucune raison de penser qu’il est optimal pour les tâches que l’on veut donner à ces machines. En comparaison, les progrès réalisés, dans la même période, par les IA de reconnaissance d’imagerie médicale ou de prédiction de structure des protéines, bien plus utiles, sont presque passés inaperçus.
Bien sûr, il s’agit là des critères qui guident l’investissement à court terme : ils expliquent pourquoi, parmi les multiples possibilités ouvertes, certaines sont explorées avant d’autres. Mais les capitalistes ne se contenteront pas éternellement de promesses et de rêves. Si une part toujours croissante du capital est investie dans la construction de centres de données et de serveurs, il faudra tôt ou tard que cela permette de moins dépenser en salaires. Et c’est bien l’objectif qu’ils ont en tête.
Ce que l’IA veut dire pour le travail
Nous n’avons pas pour tradition de rejeter en bloc l’automatisation. Elle peut être un outil d’émancipation, si elle permet à l’humanité de travailler moins ; mais les capitalistes ont la fâcheuse tendance de l’utiliser non pas pour soulager les travailleur·ses, mais pour en jeter une partie à la rue – ou bien pour augmenter la production. La réponse à l’automatisation est donc classiquement la réduction collective du temps de travail.
Dans le cas de l’IA, mon point de vue est que cette réponse est toujours pertinente, mais insuffisante. En tant que vague d’automatisation, elle affiche une particularité unique : elle concerne avant tout les professions intellectuelles. En juillet, une étude de Microsoft 10 proposait ainsi une liste des métiers les plus exposés. Dans le top 10, on trouve des emplois pour lesquelles la réduction du temps de travail est effectivement un enjeu : interprètes et traducteur·rices, agent·es de bord, représentant·es de service client, téléphonistes, agent·es de billetteries et de voyage… mais aussi les animateur·rices de radio et télévision (en dixième position), les écrivain·es (en cinquième) et les historien·nes (en deuxième !).
« On va dans la mauvaise direction. Je veux que l’IA fasse ma lessive et ma vaisselle pour que je puisse créer de l’art et écrire. Pas que l’IA fasse de l’art pour que je puisse faire ma lessive et ma vaisselle », écrit l’autrice de science-fiction Joanna Maciejewska. Cette angoisse est largement répandue, aujourd’hui, dans les milieux artistiques. Légitimement, car si des IA peuvent produire aujourd’hui des illustrations, des musiques, des vidéos, et demain peut-être des romans, c’est parce qu’elles ont été entraînées sur les œuvres produites par des artistes en chair et en os – un travail approprié gratuitement, en jouant avec les limites du plagiat. Dans les milieux artistiques, on s’en doute, la perspective d’une réduction du temps de travail permise par cette automatisation ne rassure pas grand monde, et pour cause : l’IA fait bien plus qu’augmenter la productivité. Elle est utilisée pour déposséder les artistes du fruit de leur travail, ce qui les empêche d’en vivre et mène tout droit à une société où seul·es les riches peuvent donner du temps à l’art. Une dynamique susceptible de s’étendre à toute activité intellectuelle que l’on pourrait désirer faire.
Dans les années 1970, l’économiste et militant Ernest Mandel mettait en évidence une caractéristique du « troisième âge du capitalisme » : la prolétarisation des professions intellectuelles. Ces dernières étaient traditionnellement réservées à une élite sociale, petite-bourgeoise ou bourgeoise, qui accaparait grâce aux filtres sociaux de l’enseignement supérieur un savoir dont elle faisait un privilège. Mais les développements du capitalisme post-1945 ont engendré deux tendances en tension : la concentration du capital, qui a rétréci cette élite sociale et élargi le prolétariat ; et l’automatisation, justement, qui diminuait les besoins en main-d’œuvre manuelle et augmentait ceux en main-d’œuvre intellectuelle. Résultat : de nombreuses professions intellectuelles ont été intégrées au prolétariat. Mandel utilise cette dynamique pour expliquer l’aliénation croissante de ces professions (plus contrôlées, standardisées et soumises à l’impératif du profit), mais en tire aussi la conclusion que la classe travailleuse gagne, avec cette nouvelle couche, un potentiel atout.
L’arrivée de l’IA pourrait bien représenter un virage serré. Si la concentration du capital n’est pas près de s’arrêter, l’automatisation, en revanche, s’attaque désormais au travail intellectuel. Certain·es travailleur·ses s’en sortiront par le haut : celleux qui parviendront à devenir des « managers d’IA », et donc potentiellement à se déprolétariser. Et puis il y aura tou·tes les autres : celleux qui feront les quelques tâches pénibles que les IA ne savent pas faire, notamment relire et vérifier ce qu’elles produisent, et qui travailleront donc dans un cadre encore bien plus aliéné ; et surtout, celleux qui perdront leur emploi, et devront se retrancher sur des emplois pour lesquels iels sont surqualifié·es. Occuper une profession intellectuelle pourrait alors redevenir un privilège, réservé à une élite sociale resserrée. Et par conséquent, étudier aussi.
Retour à la case enseignement
C’est ici que la question de l’enseignement devient centrale. Il doit s’adapter, mais pas seulement ses méthodes – avec ou sans IA, un enseignement efficace est avant tout un enseignement qui n’entasse pas les étudiant·es dans des auditoires bondés, entre deux jobs sous-payés. La vraie question, c’est ce qu’on y apprend, et qui y a droit.
La classe dirigeante n’a consenti à la démocratisation de l’enseignement, qui lui coûte tout de même une part substantielle de ses profits, que parce qu’elle avait besoin de travailleur·ses qualifié·es – et cette démocratisation est allée de pair avec des attaques pour limiter l’enseignement à l’acquisition des compétences nécessaires à la production, en comprimant ce qui pouvait servir à l’émancipation. Si le besoin de travailleur·ses qualifié·es diminue, il faut s’attendre à ce que les établissements du supérieur, et sans doute une partie du secondaire, soient mis sous pression pour fermer leurs portes aux jeunes de classes populaires, et que la réduction de leurs financements s’accélère. Qui tend l’oreille peut déjà entendre monter une petite musique, affirmant que certains contenus deviennent inutiles à enseigner, maintenant que l’IA les maîtrise mieux que les étudiant·es 11…
Les luttes de l’éducation pourraient donc revêtir une nouvelle dimension. Si la bourgeoisie obtient le rapport de forces qui lui permet d’ajuster les vannes de l’enseignement à ses besoins, elle pourra utiliser l’IA comme un nouvel outil d’aliénation du prolétariat sur le lieu de travail. Mais si elle se heurte à une résistance qui parvient à défendre le droit à un enseignement ouvert, gratuit et émancipateur, qui promeut le savoir comme droit universel, et qui s’attaque à la séparation même entre travail intellectuel et manuel, alors cela placera notre classe sociale dans une bien meilleure position pour avoir son mot à dire sur ce qui sera fait de ces technologies.
Une IA écosocialiste est-elle possible ?
La perspective d’une réduction du temps de travail rendue possible par l’automatisation est toujours d’actualité. Dans un grand nombre de domaines, des formes d’IA peuvent réellement être utilisées à cette fin. Mais cela suppose de mettre en place un rapport de forces suffisant pour que les utilisations de l’IA ne soient pas uniquement dictées par le profit.
Il en est de même pour les aspects écologiques, qui mériteraient un article à part entière. L’IA telle qu’on la développe est extrêmement coûteuse en énergie, en eau et en minerais. Mais du côté de la recherche, on envisage beaucoup d’applications écologiques qui ne sont pas ridicules. Entre autres, de nouvelles méthodes de compression de données (par exemple en stockant une image sous la forme d’un petit réseau de neurones, capable de reconstruire l’image a posteriori), ce qui permettrait théoriquement une réduction importante des flux échangés par Internet (et donc de l’énergie avalée par les serveurs). Pour prendre un exemple plus connu du grand public, les véhicules autonomes peuvent aussi avoir un intérêt écologique, s’ils sont utilisés en complément des transports en commun, pour les fonctions résiduelles que ceux-ci ne peuvent pas remplir – dernier kilomètre en milieu rural, transport d’une charge lourde, utilisateur·rices handicapé·es… On voit bien ici que le problème n’est pas tant dans la technologie, que dans le produit que les capitalistes en tireront : aucun constructeur automobile ne choisira de lui-même de construire des véhicules autonomes pensés pour mettre fin à la voiture individuelle. Et si de nouvelles techniques permettent d’échanger autant de données avec moins d’énergie, elles seront utilisées pour échanger plus de données.
Face à l’essor de l’IA, quelles perspectives stratégiques pour des organisations révolutionnaires ? Une priorité évidente est de dénoncer, ici et maintenant, la nature des produits vendus par les seigneurs de la tech : ChatGPT, par exemple, est un hameçon conçu pour que les consommateur·rices ne sachent plus s’en passer, et a vocation à se muer en quelque chose de bien plus profitable dès lors que cet objectif sera rempli – soit en devenant payant, soit en aspirant nos données, soit en influençant nos habitudes de consommation au profit du plus offrant. Et il y a des formes d’IA bien plus cauchemardesques encore, à combattre d’urgence. J’en vois trois absolument critiques : l’accaparement de l’art, dont j’ai déjà parlé ; le remplacement des humains par des IA dans les métiers du soin et de l’accompagnement des personnes ; et, bien sûr, les applications policières et militaires. Nous devons revendiquer une interdiction de l’IA dans ces trois domaines.
Mais un rejet en bloc de toute forme d’IA ne serait qu’une manière de garder les mains propres, et d’éviter les questions compliquées. Notre camp social doit aussi imposer ses vues sur les besoins sociaux réels auxquels des formes d’IA peuvent répondre. J’ai cité l’automatisation des métiers pénibles, et les potentielles utilisations écologiques ; il reste aussi toutes les applications dans le domaine médical et dans l’assistance aux personnes handicapées (la reconnaissance d’image pour les personnes malvoyantes, par exemple), sans doute les plus prometteuses aujourd’hui. Poser ces perspectives implique de dépasser le mysticisme des gourous de la Silicon Valley qui rêvent d’humains artificiels : les LLM et autres IA génératives, si elles constituent les stars du moment, ne sont pas nécessairement les produits les plus utiles que cette nouvelle vague technologique permet de concevoir, et ceux-ci sont sans doute à chercher dans des applications bien plus spécialisées et plus discrètes.
Le reste, bien sûr, passera par renforcer les luttes pour la réduction du temps de travail, pour le contrôle de l’outil de travail par les travailleur·ses, pour la défense des services publics (l’enseignement en particulier) et pour une économie où les besoins réels, définis démocratiquement, dictent ce qui doit être produit et comment.
Le 19 novembre 2025
Léonard Brice est militant de la Gauche anticapitaliste, section belge de la Quatrième internationale. Il travaille comme chercheur en informatique théorique dans un institut de recherche autrichien, spécialisé dans les méthodes formelles de vérification de programme.
- 1
our illustration : les algorithmes d’entraînement utilisés en pratique sont beaucoup plus techniques.
- 2
Si l’on veut citer un moment de « déclic », ce serait l’arrivée du modèle AlexNet, en 2012, qui représente un bond en avant considérable dans la reconnaissance d’images par ordinateur. Les premiers grands modèles de langage, dont GPT, arrivent en 2017-2018.
- 3
- 4
« The Big Picture 2025: Generative AI », S&P Global Market Intelligence, 7 février 2025.
- 5
- 6
- 7
Nicolas Lellouche, « ChatGPT : combien de personnes l’utilisent vraiment ? », 5 décembre 2024, numerama.
- 8
Le test originellement proposé par Turing diffère un peu de cette version, qui est celle prise comme référence aujourd’hui. À noter qu’aucune IA n’a encore réussi ce test à ce jour.
- 9
Dans l’espace francophone, ce débat a notamment été occupé par la figure très désagréable du philosophe Raphaël Enthoven, qui affirme à qui consent encore à l’entendre que « la machine ne pourra jamais penser ». Il s’appuie notamment, au premier degré, sur une expérience au cours de laquelle il a obtenu une meilleure note que ChatGPT sur un sujet du baccalauréat de philosophie. La machine sera-t-elle un jour capable de philosopher, de proposer des concepts innovants et de faire avancer les grands questionnements de l’humanité ? La question est ouverte. Mais elle l’est tout autant pour Raphaël Enthoven.
- 10
- 11