Depuis quelques mois, je passe beaucoup de temps à tester des IA, à automatiser des bouts de mon travail, et à lire des gens qui sont au cœur du développement de l’AGI.
Plus j’avance, plus une question me trotte en tête : que devient notre société si l’IA fait mieux que nous sur une grande partie des jobs “de bureau” ?
Dans cet article, je pose les choses comme je les vois aujourd’hui :
- ce que prédisent Sam Altman (OpenAI) et Dario Amodei (Anthropic),
- pourquoi je pense que l’État va surtout réagir par petites rustines,
- et en parallèle, comment la Chine semble préparer un autre scénario.
AGI, ASI : où veulent-ils aller ?
Dans un autre article, je te parlais de la méthode AZR, cette idée d’IA qui apprend “toute seule” sans données humaines.
On est dans la même logique ici : on pousse les modèles vers quelque chose qui ressemble à une intelligence générale.
Grosso modo, la trajectoire qu’imaginent les labs est la suivante :
- IA actuelle : très forte sur certaines tâches (texte, image, code), mais pas globale.
- AGI : une IA capable de faire ce que peut faire un humain dans la plupart des métiers intellectuels (déjà les LLM, Large Language Model, sont devenus des LMM, Large Multimodal Model, sans qu’on se soit rendu compte…)
- ASI : une IA plus intelligente que nous dans « quasiment » (je ne sais pas pourquoi il y a toujours ce mot dans les définitions comme si l’humain résistera toujours) tous les domaines.
Sam Altman parle déjà comme si le chemin vers l’AGI était “résolu” et que le sujet du moment, c’est l’ASI. Dario Amodei, lui, est un peu plus prudent dans les mots, mais la fenêtre de temps qu’il évoque reste très courte, pour 2030 soit dans 4 ans.
Donc oui : dans leur tête, ce n’est plus “si”, c’est “quand”.
Les emplois qui se retrouvent en première ligne
Quand tu regardes ce que les modèles savent déjà faire, le pattern est assez clair :
tout ce qui est cognitif, structuré, répétitif est en danger.
Les premières lignes concernées, selon eux :
- support client, SAV, back-office,
- marketing de base (rédaction, SEO, campagnes),
- comptabilité et finance “standard”,
- développement junior, tests, intégration,
- consulting / slides / analyses génériques.
Amodei va très loin : il parle d’une possible disparition de 50% des postes d’entrée de gamme en col blanc dans les prochaines années. Altman est un peu moins direct, mais il répète souvent qu’il y aura “de vrais dégâts” sur l’emploi. De mon point de vue, les juniors sont dopés à l’IA peuvent avoir un niveau confirmé rapidement. Les confirmés peuvent prétendre au statut d’expert. Les experts eux… coûtent chers et n’ont plus de plus-value notoire.
Et ce ne sont pas des marxistes radicaux qui disent ça. Ce sont les personnes qui construisent les outils qui automatisent ces métiers.
L’État : des rustines avant un vrai changement de modèle
On pourrait se dire : “Pas grave, l’État mettra en place un Revenu Universel, on sera tranquilles.”
Je n’y crois pas à court terme. Même si j’en parle sur mon blog depuis 10 ans !
Ce qui me paraît plus probable, c’est une séquence du type :
- Le chômage monte (10%, puis 12%…), surtout chez les cols blancs.
- L’État répond avec :
- plus de contrôle via France Travail,
- des plans de formation “IA” un peu fourre-tout,
- des ajustements de l’assurance chômage pour tenir financièrement.
- On taxe un peu les grandes boîtes IA ou les GAFAM pour combler les trous.
Le Revenu Universel arrive dans la discussion quand tout ça ne suffit plus. Mais on parle alors de décennie, pas d’année.
Et même si un UBI arrive, il reste des questions très terre-à-terre :
- combien par mois ?
- identique pour tout le monde, ou modulé selon le coût de la vie (frontière proche Genève vs la Creuse…) ?
- financé par quoi exactement : taxe sur l’IA, impôt sur les profits, autre ?
On est très loin du bouton magique.
Pendant ce temps, la Chine ne réfléchit pas pareil
Ce qui m’a vraiment frappé en creusant le sujet, c’est la différence de posture entre l’Occident et la Chine.
Côté US / Europe, l’AGI est souvent imaginée sous forme d’assistant de bureau, de copilote pour coder, écrire, créer.
Côté Chine, l’AGI est plutôt vue comme un cerveau pour l’économie réelle : usines, ports, logistique, énergie.
Mais il y a plus intrigant : certains économistes et chercheurs chinois proches du Parti Communiste commencent à voir dans l’AGI l’accomplissement de la prophétie marxiste.
Rappel rapide de Marx pour ceux qui ont oublié
Pour Marx, la valeur d’un bien ne vient pas juste du travail humain abstrait, mais surtout du travail vivant — celui qui crée de la plus-value en transformant la matière première.
Le capitalisme, selon lui, va atteindre ses limites quand il aura automatisé tout le travail humain possible. À ce moment-là, la plus-value (le profit) disparaît, car les machines ne “travaillent” pas au sens marxiste. Le système s’effondre, ouvrant la voie à une société communiste où les machines produisent l’abondance, et où cette abondance est redistribuée à tous.
L’AGI comme “accomplissement du marxisme”
En Chine, des professeurs d’université (comme Feng Xiang de Tsinghua) et des think tanks du Parti commencent à dire que l’IA résout précisément ce problème :
- Les machines créent de la valeur sans travail humain, en s’auto-améliorant (l’ASI).
- L’État chinois, propriétaire ultime des moyens de production, peut exproprier ces richesses et les redistribuer au peuple.
- Résultat : une société où le Parti assure l’abondance matérielle (nourriture, logement, énergie gratuite ou quasi) pour tous, sans besoin de “capitalistes privés” qui accaparent les profits.
C’est une lecture fascinante : l’AGI ne détruit pas le marxisme, elle le réalise !
Au lieu d’un UBI “à l’américaine” (un chèque mensuel sur ton compte), la Chine prépare plutôt :
- une gratuité progressive des services essentiels (transports publics, énergie, logement social), rendue possible par l’hyperproductivité des usines automatisées,
- une obligation pour les entreprises privées (Alibaba, Tencent) de financer la reconversion des employés qu’elles remplacent par de l’IA (loi mise en place depuis 2025 !),
- et des subventions massives liées à la natalité, qui font déjà office de filet de base pour les familles.
En clair : moins un “revenu en cash pour tous”, plus une prise en charge directe des besoins de base par un État qui garde la main sur les leviers économiques.
Ce qui me préoccupe vraiment
Je ne suis pas en train de dire “c’était mieux avant” ou “il faut arrêter l’IA”.
Je passe mes journées à l’utiliser, à l’intégrer dans mon boulot, à la tester. Je vois très bien les gains de productivité, y compris pour moi. Ce que je suis capable de produire aujourd’hui n’a rien à voir avec ce que je pouvais pondre il y a encore 8 mois ! Et pourtant…
Mais je suis inquiet sur deux points :
- Le timing social vs le timing technologique
L’IA progresse par bonds. Les lois, les institutions, les protections sociales, elles, avancent lentement.
Entre le moment où les agents IA remplacent massivement des jobs et le moment où un nouveau modèle (type UBI ou autre) est réellement en place, il y a un trou.
Et ce trou peut faire très mal. Combien de personne vont se retrouver dans la rue, faute de mieux, faute de ressource insuffisante ? Avant je ne pensais très peu au nombre de marginaux, aujourd’hui je me dis que demain, n’importe qui peut se retrouver au chômage et sans suite professionnel, ca va devenir une réalité ! - Le sens une fois que la survie est “gérée”
Même si on arrive à un monde où tout le monde a de quoi manger et se loger grâce à l’IA, il reste une question :
que fait-on de nos journées si 80% de ce qu’on appelait “travail” disparaît ou devient marginal ?
Comment on reconstruit du statut, du projet, du collectif, quand l’économie n’a plus vraiment besoin de nous ? J’avais écrit ce billet il y a pratiquement 10 ans maintenant, et je me pose toujours cette question mais avec un regard différent.
Je n’ai pas de réponse toute faite. Mais je crois que c’est un sujet qu’on ne peut plus laisser aux seuls PDG de labs, ni aux seuls cabinets ministériels.
Pourquoi j’écris ça ici
Je suis directement concerné :
- je développe une activité qui s’appuie sur l’IA,
- je vois très bien quelles tâches je pourrais déléguer à des agents demain,
- et je me demande ce que ça signifie, concrètement, pour les gens qui font ces tâches aujourd’hui.
Cet article n’est pas une conclusion, c’est une prise de notes en public.
Si tu bosses dans la tech, le marketing, la compta, le conseil, ou que tu te poses les mêmes questions sur l’avenir du travail, je serais vraiment curieux de lire ton point de vue.
Tu peux me répondre en commentaire, par mail, ou sur LinkedIn.
Je pense qu’on va avoir besoin de beaucoup de conversations honnêtes avant d’avoir ne serait-ce qu’un début de plan collectif.