Il y a quelques jours, je discutais avec mon frère. On parlait de nos enfants, et on réfléchissait au monde dans lequel ils vont vivre. Au milieu de cette conversation, je me suis rendu compte d'une chose qui m'a donné le vertige. Le monde que mon fils de quatre ans va habiter n'aura probablement plus rien à voir avec celui que je connais. Pas parce que tout ira mal. Parce que tout va changer. Et que personne, ou presque, ne semble préparer les enfants à ce qui arrive.
Il y a quelques jours, je discutais avec mon frère. On parlait de nos enfants, et on réfléchissait au monde dans lequel ils vont vivre. Au milieu de cette conversation, je me suis rendu compte d'une chose qui m'a donné le vertige.
Mon fils a quatre ans. Quand il en aura quatorze, on sera en 2036. Quand il en aura vingt-quatre et qu'il commencera sa vie d'adulte, on sera en 2046. Je n'ai aucune idée de ce à quoi ressemblera le monde à ce moment-là. Et pas dans le sens vague où personne ne sait jamais de quoi demain sera fait. Dans le sens très concret où je commence à douter que les repères qu'on apprend aujourd'hui à nos enfants aient encore du sens quand ils seront adultes.
Est-ce qu'il apprendra à conduire ? Est-ce qu'il ira chez le médecin ? Est-ce qu'il aura un patron, un métier, un bureau ? Est-ce que ses professeurs seront humains ?
J'ai passé les trois dernières semaines à lire tout ce que je pouvais trouver de sérieux sur le sujet. Ingénieurs, philosophes, économistes, chercheurs. J'ai demandé à Claude d'explorer cinq angles différents pour creuser avec moi. Je te partage ici ce qui ressort. Sans jargon, sans complexité inutile. Simplement ce que j'ai compris, et pourquoi cette lecture me pousse à repenser ce que je vais transmettre à mon fils.
Je peux me tromper sur beaucoup de points. Mais je pense qu'on sous-estime ce qui arrive.
Le vrai changement ne viendra pas d'une machine qui nous remplace de force dans nos métiers. Il viendra du moment où nous allons nous-mêmes choisir la machine, parce qu'elle sera plus compétente, plus disponible, plus patiente, plus personnalisée qu'un humain. Pour nos soins, pour nos enfants, pour nos déplacements. Et ça, c'est bien plus vertigineux que n'importe quel film de science-fiction.
Avant de partir dans l'avenir, il faut comprendre où on en est. Parce qu'on est déjà ailleurs que ce que beaucoup de gens pensent.
L'intelligence artificielle aujourd'hui — Claude, ChatGPT, Gemini, les autres — ce ne sont plus des gadgets pour geeks. Une personne sur deux dans le monde en utilise. Plus vite que tout ce qu'on a connu avant. Plus vite que le smartphone, plus vite qu'Internet, plus vite que la télévision.
Et ces IA réussissent déjà des examens que 99 % des humains rateraient. Elles écrivent du code mieux que la plupart des développeurs. Elles répondent à des questions de médecine mieux que beaucoup de médecins généralistes. Elles traduisent, elles résument, elles analysent, elles créent des images, des voix, des vidéos qu'on ne distingue plus du vrai.
Je précise tout de suite : elles se trompent encore souvent. Elles inventent. Elles peinent sur les tâches longues qui demandent des heures de concentration. Elles ne savent pas encore vraiment « travailler toutes seules » pendant toute une journée comme un humain.
Mais voilà le détail qui change tout : elles progressent à une vitesse qu'on n'a jamais vue. Les chercheurs de METR (Model Evaluation & Threat Research) mesurent ce qu'une IA arrive à faire en autonomie avant de perdre le fil. Aujourd'hui, c'est environ une heure de travail humain. Il y a deux ans, c'était quelques minutes. Ce chiffre double tous les quatre mois.
Si tu projettes cette cadence sur quelques années, tu comprends pourquoi je me pose des questions.
| Horizon | Âge de mon fils | Le pari | Probabilité |
|---|---|---|---|
| 2030 · 5 ans | 9 ans | IA médecin en première ligne (> 50 % consultations primaires) | 60 % |
| 2032 · 6 ans | 11 ans | Voiture autonome dans toutes les grandes métropoles FR | 70 % |
| 2035 · 9 ans | 14 ans | Tuteur IA personnel pour la moitié des familles classe moyenne sup' | 50 % |
| 2040 · 14 ans | 18 ans | Permis de conduire facultatif en métropole | 80 % |
| 2050 · 24 ans | 28 ans | IA prend > 30 % des décisions stratégiques en entreprise | 65 % |
Mes 5 paris détaillés ci-dessous · révisés chaque année
Au-delà de l'IA pure, les mêmes mouvements se voient côté géopolitique. Pékin a publié son 15ᵉ plan quinquennal en mars 2026 avec exactement la même logique : doubler la mise sur la techno (puces, IA, robots) avant 2030. Et la série podcast Guerres d'IA raconte cette course en mode thriller industriel.
Le début du changement, il est là. Pas dans l'avenir. Dans les chiffres du trimestre dernier.
Au début de cette année, les entreprises technologiques américaines ont licencié près de 80 000 personnes en trois mois (chiffres consolidés sur Layoffs.fyi, le tracker de référence). Près de la moitié de ces licenciements sont attribués officiellement à l'intelligence artificielle par les entreprises elles-mêmes. Pas « on restructure ». Non. Explicitement : « on a des outils qui font le travail, on n'a plus besoin d'autant de gens ».
Block, une des grandes entreprises américaines de paiement (l'ex-Square de Jack Dorsey), est passée de 10 000 employés à moins de 6 000 en quelques mois. Leur raison officielle : leurs agents IA gèrent la majorité des demandes clients sans intervention humaine.
Mais le chiffre qui m'a le plus frappé est ailleurs. Aux États-Unis, les embauches de jeunes développeurs ont chuté de 20 % en deux ans. Les offres d'emploi d'entrée de carrière dans la tech ont été divisées par trois. Le chômage des jeunes diplômés en informatique est à son plus haut niveau depuis vingt ans.
Traduit autrement : les IA sont déjà assez bonnes pour absorber les tâches que faisaient les juniors. Les seniors voient leur productivité multipliée. Les patrons n'embauchent plus de juniors parce qu'ils coûtent cher à former pour un bénéfice qui a disparu.
Le problème, c'est que dans dix ans, il va manquer une génération de seniors. Parce que les seniors de 2035, c'étaient les juniors de 2025. Et ces juniors-là, on ne les a pas formés.
On est en train de couper la branche sur laquelle toute l'industrie est assise. Silencieusement.
Dans les rues des grandes villes américaines, les voitures sans chauffeur sont devenues ordinaires. Waymo, la filiale d'Alphabet (Google), assure 500 000 trajets par semaine. Le service fonctionne à San Francisco, Phoenix, Los Angeles, Austin, et plusieurs autres villes. Londres démarre cette année, première ville hors des États-Unis.
Les lunettes connectées Meta — celles qui filment, qui répondent à tes questions, qui reconnaissent ce que tu regardes — se sont vendues à 7 millions d'exemplaires l'an dernier. Apple sort son modèle à la fin de cette année.
Et les robots humanoïdes, ces robots qui ressemblent à des humains et qui peuvent attraper une tasse de café ou plier du linge, sont passés du rêve de science-fiction à un produit qu'on peut acheter. Le modèle chinois le plus simple, le Unitree G1, coûte 5 000 dollars. Disponible dès maintenant. Tesla veut en produire des dizaines de milliers cette année avec son robot Optimus.
Je ne dis pas que ces machines vont remplir tous les salons d'ici 2031. Mais la courbe est lancée. Dans dix ans, un robot humanoïde à la maison sera à peu près aussi banal qu'un smartphone l'est aujourd'hui.
On se focalise sur « les métiers qui vont disparaître ». Je pense qu'on regarde dans la mauvaise direction. Le vrai problème, c'est l'entrée en carrière. Si les jeunes de vingt ans ne trouvent pas de premier poste parce que les IA font leur travail, qu'est-ce qu'ils deviennent ? Et qu'est-ce qu'on fait dans dix ans, quand on aura besoin de cadres expérimentés qui n'auront jamais eu la chance d'apprendre leur métier ?
À dix ans, les scénarios se séparent. Et là, il faut que je sois honnête : personne ne sait vraiment.
D'un côté, les patrons des grandes entreprises d'IA américaines — Sam Altman d'OpenAI, Dario Amodei d'Anthropic, Elon Musk de xAI — disent la même chose : l'intelligence artificielle va atteindre, dans les deux ou trois prochaines années, le niveau d'un humain moyen sur à peu près tous les terrains. Puis elle le dépassera. Après, tout s'accélère. Les découvertes scientifiques qui prennent aujourd'hui des décennies se feront en années. Les maladies reculeront. L'économie mondiale doublera. On vivra plus longtemps, en meilleure santé.
Amodei va plus loin dans ses interventions publiques : il parle ouvertement d'une « compression de carrière », une vie professionnelle entière qui pourrait se condenser en quelques années une fois l'IA assez puissante pour faire le travail de PhD en quelques heures. Il a écrit un texte qu'il appelle Machines of Loving Grace (Des machines pleines de grâce). Il y décrit ce qui est possible si tout se passe bien. C'est un optimisme qui fait tourner la tête.
De l'autre côté, des chercheurs tout aussi sérieux affirment : on fait fausse route. Yann LeCun, un des trois pionniers de l'IA moderne (Turing Award 2018), a quitté son poste de directeur scientifique de l'IA chez Meta en 2025. Son message : les techniques actuelles ne mènent nulle part. Elles sont brillantes pour imiter, médiocres pour comprendre. Pour aller plus loin, il faudra réinventer la recherche depuis le début. Cela peut prendre dix ans, vingt ans, peut-être davantage.
Gary Marcus, professeur émérite à NYU et auteur de Rebooting AI, pense que la bulle financière autour de l'IA va éclater dans les deux ans qui viennent. On y a investi des centaines de milliards en espérant des miracles. Si les miracles ne viennent pas, la correction va être violente.
Ce qui me frappe, c'est que dans les deux scénarios, trois choses sont à peu près certaines :
La première, c'est une concentration de pouvoir comme on n'en a jamais vu. Cinq entreprises américaines et une chinoise se partagent déjà l'essentiel de la technologie. Quelques milliardaires — Musk, Zuckerberg, Bezos, Altman — pèsent plus que la plupart des États. Les règles qui encadrent ces entreprises sont encore en train d'être écrites, et la plupart des gouvernements sont largement dépassés.
La deuxième, c'est la pression sur l'énergie. Les centres de données qui font tourner les IA consomment énormément d'électricité. Leur consommation va doubler d'ici cinq ans. Microsoft, Google et Amazon commandent déjà des petits réacteurs nucléaires pour alimenter leurs serveurs. La fusion nucléaire — cette technologie qu'on promet depuis cinquante ans — arrive enfin au stade industriel. Les premières livraisons sont prévues pour 2028.
La troisième, c'est la difficulté grandissante à savoir ce qui est vrai. Les vidéos, les voix, les images truquées par l'IA deviennent impossibles à distinguer du vrai. Les élections de 2028, aux États-Unis et ailleurs, vont se jouer dans un paysage d'information où tout le monde va se méfier de tout.
Vingt ans, c'est à la fois loin et proche. C'est le moment où mon fils terminera ses études. C'est aussi à peu près le moment où je fêterai mes soixante ans.
Je ne vais pas te faire la liste des scénarios possibles. À vingt ans, personne ne sait. Je vais plutôt te raconter ce que je pense vraiment, en acceptant que je peux avoir tort.
Mon fils ne conduira jamais. Je ne dis pas « il n'aura pas son permis » — je dis il ne conduira jamais. Je donne 70 % de chances qu'il ne passe jamais le permis, et 80 % qu'il ne possède jamais de voiture personnelle. Il aura 18 ans en 2040. À cette date, les voitures sans chauffeur seront la norme dans les villes, sûrement pas partout, mais suffisamment pour que conduire soi-même devienne un geste étrange. Comme aujourd'hui, plus personne n'apprend à allumer un feu sans briquet. Techniquement possible, pratiquement inutile.
Pourquoi pas 100 % ? Parce que la France n'est pas San Francisco. Les zones rurales, les petites routes, les voyages en montagne resteront probablement à conduire à la main pendant longtemps. Mon fils habitera peut-être à Paris, Lyon ou Bordeaux — il n'aura pas besoin de permis. S'il habite dans un village du Cantal, peut-être que oui.
Quand il aura mal au ventre, ou qu'il aura une question de santé, je ne pense pas qu'il prendra rendez-vous chez un médecin humain. Pas parce que les médecins humains seront interdits. Parce qu'il préférera l'IA. Je donne 60 à 80 % de chances que dans 15 ans, plus de 50 % des consultations médicales primaires (mal de ventre, fièvre, conseil santé) se fassent face à une IA — et non plus face à un humain.
Imagine un médecin qui aurait lu toute la littérature scientifique mondiale, qui serait à jour sur les dernières études publiées ce matin, qui aurait accès à ton dossier complet depuis ta naissance, qui pourrait croiser tes symptômes avec ceux de dix millions d'autres patients pour te dire avec précision ce qui se passe, et qui pourrait te répondre à trois heures du matin sans s'impatienter. Cette intelligence existera. Et elle sera accessible depuis ton téléphone.
Qui va vouloir, à la place, attendre trois semaines un rendez-vous chez quelqu'un qui aura vu quarante patients dans la journée, qui peut se tromper parce qu'il est fatigué, et qui te recevra quinze minutes avant de passer au suivant ? Je pense que les gens vont préférer la machine. D'abord par choix. Puis comme norme. Les médecins humains deviendront des accompagnants des cas complexes, ou des guides émotionnels. Pas les premiers interlocuteurs.
C'est l'angle le plus difficile à entendre, et le plus important de cet article. Je ne dis pas que l'IA nous remplacera de force. Je dis que nous, humains, allons activement la choisir à la place d'autres humains. Et ça se voit déjà en 2026, dans trois domaines très concrets.
Premier exemple : Doctolib + IA Gemini Health. Doctolib a déjà déployé un assistant IA qui pré-qualifie ta consultation avant même que tu voies le médecin. Tu décris ton symptôme, l'IA pose les bonnes questions, oriente vers la bonne spécialité, propose un créneau. Beaucoup d'utilisateurs disent déjà préférer cette étape à l'échange standard avec le secrétariat médical. Moins de jugement, pas de sentiment de déranger, des questions plus précises.
Deuxième exemple : Waze vs guide humain. Personne ne demande plus la route à un piéton. On préfère Waze. Pas parce que Waze est obligatoire — parce que Waze est meilleur. Plus à jour, plus précis, plus rapide. Le basculement s'est fait en moins de dix ans, sans loi, sans contrainte. Par préférence.
Troisième exemple : Khanmigo en école pilote. La Khan Academy teste depuis 2024 un tuteur IA qui accompagne chaque élève individuellement. Premiers retours : beaucoup d'élèves préfèrent poser leurs questions « bêtes » à l'IA plutôt qu'au prof devant la classe. Pas de honte, pas de jugement, patience infinie.
Ce n'est pas seulement de la fainéantise. C'est plusieurs forces qui se cumulent :
Je ne pense pas que l'IA remplace tout. Il restera une zone de 15 à 25 % où l'humain reste central, et même indispensable :
Mais pour les 75-80 % restants (consultation primaire, conseil juridique, soutien scolaire, orientation, conseil financier de base, cours de langue), je pense honnêtement qu'on choisira la machine. Pas par contrainte. Par préférence.
À l'école, je pense que mon fils aura des professeurs humains pour les cours où la relation humaine compte vraiment — le sport, les arts, la philosophie, les projets collectifs. Pour tout le reste, il aura un tuteur IA. Un tuteur qui s'adapte à son rythme, qui a une patience infinie, qui sait quand il ne comprend pas, qui trouve dix façons différentes d'expliquer la même chose jusqu'à ce que ça fasse déclic.
On sait depuis les années 80 que les enfants qui ont un tuteur personnel apprennent deux fois mieux que ceux qui sont en classe de trente. Mais on n'a jamais pu se le permettre à grande échelle — le coût était prohibitif. Les IA changent cette équation. Un tuteur IA pour chaque enfant devient possible, pour un coût qui tend vers zéro.
Je donne 80 % de chances que d'ici 2035, les enfants en école privée aient un tuteur IA personnel pour la majorité des matières académiques, et 50 % pour les écoles publiques (où la résistance institutionnelle sera plus forte). Les parents qui auront le choix préféreront cette option. Encore une fois : par préférence, pas par contrainte.
Et puis il y a la question qui me tient le plus à cœur. Quand mon fils aura 24 ans et commencera sa vie active, à quoi ressemblera le monde du travail ?
Je pense qu'il ne ressemblera plus du tout à ce qu'on connaît.
Je ne dis pas qu'il n'y aura plus de travail. Je dis que la nature du travail va changer fondamentalement. Une grande partie de la valeur économique sera produite par des machines — agents IA, robots, systèmes automatisés. Les humains contribueront par ce que les machines ne savent pas faire : donner du sens, créer de la vraie nouveauté, tisser des relations, décider quand les règles ne suffisent plus.
Beaucoup de pays mettront en place une forme de revenu de base. Pas par idéologie, par nécessité. Parce que si la majorité de la richesse est produite sans les humains, il faut bien que cette richesse soit redistribuée — sans cela, tout l'édifice s'effondre.
Et le mot « travail » lui-même va changer de sens. Pour mon fils, travailler ressemblera peut-être plus à ce qu'on appelle aujourd'hui un projet, un engagement, une passion. Un choix qu'on fait parce qu'on veut contribuer à quelque chose. Pas une obligation pour survivre.
Je ne dis pas que ce sera facile. Une société sans travail au sens classique, c'est aussi une société qui doit réinventer le sens qu'elle donne à la vie. C'est un défi énorme. Mais ce n'est pas forcément un cauchemar.
Pour assumer vraiment cet article comme une opinion, je préfère poser des chiffres plutôt que des affirmations vagues. Voici mes 5 paris concrets, avec une probabilité que je m'engage à réviser publiquement chaque année. Si je me trompe, j'assumerai. Si j'avais raison, je le dirai aussi.
Trop d'essais sur l'IA disent « ça va arriver » ou « ça n'arrivera jamais ». C'est paresseux. Mettre une probabilité, c'est s'exposer à être réfuté. C'est aussi forcer un raisonnement : pourquoi 70 % et pas 90 % ? Qu'est-ce qui me ferait changer d'avis ? J'invite tout lecteur à challenger ces chiffres, à proposer les siens. Réponds à l'email, je publierai les contre-paris les plus argumentés.
Tout ce que je viens d'écrire, c'est mon opinion. Elle vaut ce qu'elle vaut. Ce qui compte vraiment, c'est ce que je fais maintenant avec ces quatre ans que j'ai devant mon fils avant l'école primaire.
Qu'est-ce que je lui apprends ?
Pas à coder. Les IA codent mieux que moi. Dans quinze ans, elles coderont mieux que n'importe qui. Ce n'est plus un bon pari pour un enfant.
Pas à mémoriser des dates ou des capitales. Il aura toujours, dans sa poche, une machine qui sait tout et qui répond en une seconde.
Pas à faire des calculs à la main. Même remarque.
Alors quoi ?
Je veux lui apprendre à juger. À sentir quand quelque chose sonne faux. À ne pas croire tout ce qu'il voit. À poser les bonnes questions. Parce que dans son monde, l'information sera partout, mais le discernement sera rare.
Je veux lui apprendre à choisir. Pas à subir ce qu'on lui propose. À comprendre pourquoi il préfère ceci à cela. À assumer ses goûts, ses valeurs, ses désaccords.
Je veux lui apprendre à aimer. À être en relation vraie avec d'autres humains. Parce que la relation humaine, authentique, avec ses silences et ses maladresses, c'est peut-être la seule chose que les machines ne feront jamais vraiment.
Je veux lui apprendre à créer. Pas à copier, pas à suivre. À inventer quelque chose qui n'existait pas avant. Même petit, même maladroit. Le plaisir de faire advenir quelque chose de nouveau.
Et puis, paradoxalement, je veux lui apprendre à ne pas avoir peur de la machine. À comprendre comment elle fonctionne. À la diriger plutôt qu'à la subir. À rester en position de choix, au moment où tout le monde autour de lui préférera les choix déjà faits pour soi.
Mon fils va grandir avec des écrans, parce que c'est son monde. Mais je veux qu'il grandisse aussi avec des livres, avec la nature, avec des amis en chair et en os, avec l'ennui — le vrai ennui, celui qui oblige à inventer. Je veux qu'il connaisse la patience d'attendre, la joie de faire soi-même, le bonheur simple d'un dimanche sans programme. Pas pour le protéger du futur. Pour lui donner des racines assez profondes pour l'habiter vraiment.
Si le sujet t'intéresse, trois lectures qui m'ont nourri :
Et trois sources directes pour suivre les paris en temps réel :
Pour creuser les angles complémentaires sur ce site, lis aussi mon décryptage du plan chinois 2026-2030 (la dimension géopolitique de la même course IA), le podcast Guerres d'IA (la rivalité OpenAI vs Anthropic vs labos chinois en série narrative), et les travaux de Karpathy (pour comprendre techniquement où en sont les modèles).
Cet article est une opinion. Elle va évoluer avec les faits. Si tu veux suivre comment elle évolue, inscris-toi à ma newsletter. Et si tu n'es pas d'accord, si tu penses que je suis trop pessimiste ou au contraire que j'embellis, réponds à l'email, je lis tout. C'est un sujet trop important pour que j'en parle seul.
Une donnée obsolète, un chiffre qui a bougé, un de mes paris qui se réfute déjà ? Écris-moi à sagnier.jeremy@gmail.com · je corrige en 48h max et je note la date de MAJ en haut. Les 5 paris sont révisés publiquement chaque année — si tu vois un contre-pari mieux argumenté, je le publie. Je lis tout, je réponds.
Mon pari : le marché du travail tech sera déjà cassé. Au début 2026, les entreprises tech américaines ont licencié près de 80 000 personnes en un trimestre, dont la moitié explicitement à cause de l'IA. Les embauches de jeunes développeurs ont chuté de 20 % en deux ans. Les voitures sans chauffeur font déjà 500 000 trajets par semaine aux US. Dans 5 ans, ce qui est marginal aujourd'hui sera la norme.
Mon pari personnel : non, il ne conduira jamais. Il aura 18 ans en 2040, et à cette date les voitures autonomes seront la norme dans les villes. Conduire soi-même deviendra un geste étrange, comme allumer un feu sans briquet. Techniquement possible, pratiquement inutile.
Je pense qu'on regarde dans la mauvaise direction en parlant de remplacement. Le vrai basculement, c'est qu'on va nous-mêmes choisir la machine plutôt qu'un humain, parce qu'elle sera plus disponible, plus à jour, plus patiente. Les chercheurs mesurent que l'autonomie d'une IA double tous les 4 mois. Projeté sur 10 ans, ça change la nature même du travail, pas juste les emplois.
Les entrées de carrière, surtout dans la tech. Les offres pour développeurs juniors aux US ont été divisées par trois et le chômage des diplômés en informatique est au plus haut depuis 20 ans. Block est passé de 10 000 à moins de 6 000 employés grâce à ses agents IA. Le risque réel n'est pas la disparition des seniors, c'est l'absence de juniors qu'on ne forme plus, et donc la disparition des seniors de demain.
Mon avis : la vraie menace n'est pas Skynet, c'est la concentration de pouvoir. Cinq entreprises américaines et une chinoise se partagent l'essentiel de la techno IA. Quelques milliardaires (Musk, Zuckerberg, Bezos, Altman) pèsent plus que la plupart des États. Les gouvernements sont largement dépassés. Le risque, c'est ce déséquilibre, pas un film de science-fiction.
Mon choix pour mon fils : pas coder, pas mémoriser, pas calculer à la main. Lui apprendre à juger (sentir quand quelque chose sonne faux), à choisir (assumer ses goûts), à aimer (relations vraies) et à créer (inventer ce qui n'existait pas). Et lui apprendre à diriger la machine plutôt qu'à la subir. Racines profondes pour habiter vraiment son monde.
Imagine un médecin qui aurait lu toute la littérature scientifique mondiale, qui serait à jour sur les études publiées ce matin, qui aurait ton dossier complet depuis ta naissance et qui répondrait à 3h du matin sans s'impatienter. Face à ça, attendre 3 semaines un rendez-vous de 15 minutes avec quelqu'un de fatigué qui a vu 40 patients dans la journée ? Mon pari : les gens vont préférer la machine. D'abord par choix, puis comme norme.
Crédible, oui. Gary Marcus, chercheur critique, pense que la bulle financière autour de l'IA va éclater dans les 2 ans. On y a investi des centaines de milliards en espérant des miracles ; si les miracles ne viennent pas, la correction sera violente. Yann LeCun, pionnier de l'IA, a quitté Meta en 2025 en disant que les techniques actuelles ne mènent nulle part. Même dans ce scénario, la concentration de pouvoir et la pression énergétique restent acquises.
Mon pari : oui, profondément. On sait depuis les années 80 qu'un enfant avec un tuteur personnel apprend deux fois mieux qu'en classe de 30. Le coût rendait ça impossible à grande échelle. Les IA changent l'équation : un tuteur IA par enfant pour un coût qui tend vers zéro. Les profs humains resteront pour le sport, les arts, la philo, le collectif. Le reste basculera, par préférence des parents, pas par contrainte.
Trois lectures qui m'ont nourri pour me poser : Machines of Loving Grace de Dario Amodei (Anthropic) pour le scénario optimiste, The Precipice de Toby Ord (Oxford) pour le pari risque existentiel, et Situational Awareness de Leopold Aschenbrenner (ex-OpenAI) pour ce que voient les labos. Je peux me tromper sur beaucoup de points, mais je pense qu'on sous-estime ce qui arrive. Lire, douter, choisir.
Chaque fois que je publie un nouveau tuto Claude Code / IA, je l'envoie dans ma newsletter AI Playbook. Si tu ne veux pas manquer le prochain, laisse-moi ton email sur la home.
Voir les newsletters →