Opinion.
L’un de nos éditeurs nous a demandé de prendre position sur quelque chose qui le préoccupe : le discours sur l’IA est enfermé dans un faux dilemme. D’un côté, on trouve des gens qui parlent des grands modèles de langage comme des paysans médiévaux parlaient des reliques de la Vraie Croix. De l’autre, des gens qui insistent sur le fait que ces systèmes ne sont que de l’autocomplétion avec un budget marketing. Les deux camps ont tort, et ce tort a des conséquences : la façon dont on définit une technologie détermine comment on la régule, la finance, la déploie et comment on lui survit.
Le cadrage le plus juste serait quelque chose comme « gifted toddler » (bambin surdoué). Un potentiel immense. De véritables éclairs de génie. Et une tendance absolue à avaler des crayons dès qu’on a le dos tourné.
Le camp des dieux
Sam Altman a écrit début 2025 qu’OpenAI est « désormais convaincue de savoir comment construire une AGI au sens traditionnel du terme » et que l’entreprise « commence à viser au-delà, vers la superintelligence au sens propre ». Dario Amodei, PDG d’Anthropic, a prédit qu’en 2030, « les systèmes IA seront à considérer comme l’équivalent d’un État entièrement nouveau peuplé de personnes très intelligentes ». Elon Musk a estimé une probabilité de 20 % d’anéantissement de l’humanité par l’IA, le genre de chiffre qu’on lance pour paraître sérieux sans avoir à le défendre.
Cette aile du discours sur l’IA traite ces systèmes comme des divinités en gestation. Le vocabulaire est théologique : alignementEn sécurité de l'IA, le processus garantissant que les objectifs et les comportements d'un système IA correspondent aux valeurs et intentions humaines. Un alignement insuffisant peut amener les systèmes IA à optimiser les métriques mesurables d'une manière contraire aux intérêts humains., risque existentiel, singularité. Le cadrage suppose des capacités qui n’existent pas encore, puis construit des recommandations politiques sur ces suppositions. C’est l’équivalent de réguler l’aviation commerciale en 1903 en partant du principe que le Flyer des frères Wright transporterait des passagers sur Mars avant 1910.
Le problème n’est pas que ces personnes aient nécessairement tort sur la trajectoire à long terme. Le problème, c’est que traiter une technologie comme inévitable et toute-puissante tend à produire deux résultats : la paralysie (« on ne peut pas l’arrêter, alors pourquoi essayer ») et le chèque en blanc (« donnez-nous des financements illimités pour sauver l’humanité »). Ni l’un ni l’autre n’est utile.
Le camp des calculatrices
À l’autre extrémité, on trouve les sceptiques. « Ce n’est que de la correspondance statistique de motifs. » « Ça ne comprend rien. » « C’est un perroquet stochastiqueUne caractérisation péjorative des modèles de langage comme des systèmes qui reproduisent simplement les patterns statistiques des données d'entraînement sans compréhension ou raisonnement véritable.. » Ces affirmations ne sont pas techniquement fausses, de la même façon que décrire un cerveau humain comme « de simples signaux électrochimiques » n’est pas techniquement faux. La description est exacte et totalement inutile pour prédire ce que le système fera réellement.
Le camp des calculatrices tend à se concentrer sur les échecs comme preuve d’une limitation fondamentale. Et les échecs sont réels. En mai 2024, l’IA Overview de Google a conseillé en toute confiance à des utilisateurs d’ajouter de la colle sur leur pizza pour que le fromage tienne mieux, en s’appuyant sur un post Reddit vieux de onze ans écrit dans l’esprit d’un troll. Il a aussi recommandé de manger un petit caillou par jour pour la santé digestive, en citant un article satirique de The Onion. C’est franchement drôle, et franchement révélateur.
Mais le camp des calculatrices fait la même erreur que quelqu’un qui regarde un enfant de trois ans essayer de manger un crayon et en conclut que l’enfant n’apprendra jamais à lire. L’échec est réel. La conclusion n’en découle pas.
Ce qu’est vraiment l’IA aujourd’hui
Voici ce que disent les données, quand on les regarde toutes au lieu de se limiter à celles qui confirment ses convictions préalables.
Côté brillance : AlphaFold a prédit la structure tridimensionnelle de pratiquement toutes les protéines connues, un problème qui avait résisté à la biochimie pendant cinquante ans. Ce travail a valu le prix Nobel de chimie 2024. Plus de trois millions de chercheurs dans 190 pays utilisent désormais la base de données qui en a résulté. Le système de diagnostic IA de Microsoft a résolu des cas médicaux complexes avec une précision de 85,5 %, contre une moyenne de 20 % chez des médecins expérimentés. L’IA a aidé des chercheurs à identifier un gène spécifique comme cause de la maladie d’Alzheimer en visualisant des structures protéiques tridimensionnelles que l’analyse humaine n’aurait pas pu résoudre.
Côté crayons : à ce jour, en 2025, plus de 300 cas documentés d’avocats ayant soumis à des tribunaux des citations de jurisprudence inventées par l’IA ont été recensés, avec 128 avocats sanctionnés dans des juridictions fédérales, étatiques et tribales américaines. Le cabinet Morgan and Morgan, 42e plus grand cabinet du pays par effectifs, a vu trois de ses avocats sanctionnés après que huit des neuf affaires citées se sont avérées inexistantes. Un rapport Deloitte soumis au gouvernement australien, facturé 440 000 dollars australiens, contenait des sources académiques fabriquées et une fausse citation de décision de justice. Dans un autre incident, le plan Deloitte pour les ressources humaines de la santé de Terre-Neuve-et-Labrador, facturé 1,6 million de dollars canadiens, incluait au moins quatre citations d’articles de recherche qui n’avaient jamais été écrits.
Ces deux exemples concernent la même technologie. C’est précisément ce que le discours sur l’IA ne cesse de rater.
Pourquoi « gifted toddler » est le bon cadrage
Un enfant prodige peut faire des choses qui vous stupéfient sincèrement. Il peut aussi mettre une fourchette dans une prise électrique. Ces deux capacités ne sont pas contradictoires ; elles sont toutes deux la conséquence d’une même architecture sous-jacente : une puissance de traitement élevée, une reconnaissance des motifs qui confine parfois à l’inquiétant, et absolument aucun jugement fiable sur la question de savoir quand les appliquer.
Les grands modèles de langage présentent exactement ce profil. Ils peuvent synthétiser des informations entre différents domaines, identifier des motifs que les humains ratent, générer du code fonctionnel et produire des textes souvent indiscernables d’une rédaction experte. Ils peuvent aussi affirmer en toute confiance que le plus grand pays d’Afrique est le Nigeria (c’est l’Algérie), soutenir qu’un précédent juridique inexistant est une loi contraignante, ou recommander des modifications structurelles à un bâtiment qui violeraient les lois fondamentales de la physique.
Le cadrage du toddler n’est pas condescendant. C’est le contraire. Un enfant aux dons réels n’est pas quelque chose qu’on ignore ou qu’on écarte. C’est quelque chose qu’on supervise, avec soin, tout en investissant dans son développement. On ne lui remet pas les clés de la voiture. On ne l’enferme pas non plus dans un placard.
Le discours actuel sur l’IA fait l’un ou l’autre.
Le déficit de supervision dans le débat sur l’IA
La conséquence concrète d’un discours sur l’IA défaillant est un déficit de supervision. Le camp des dieux veut construire d’abord et aligner ensuite, parce que les enjeux sont trop élevés pour ne pas faire la course. Le camp des calculatrices veut rejeter toute idée de surveillance sérieuse, parce que la technologie n’est pas assez impressionnante pour le justifier. Les deux positions mènent au même endroit : un déploiement sans supervision.
Ilya Sutskever, cofondateur d’OpenAI, a déclaré la fin de « l’ère du scaling » fin 2024, notant que le pré-entraînement a atteint un plafond parce que « nous n’avons qu’un seul internet » dont le texte a été effectivement épuisé. Le secteur se tourne désormais vers les données synthétiquesDonnées générées artificiellement créées par des systèmes d'IA plutôt que collectées à partir de sources du monde réel. L'industrie de l'IA se tourne vers celles-ci après avoir épuisé la plupart du texte disponible sur Internet., les systèmes agentiques et les nouvelles architectures. C’est l’équivalent du toddler qui apprend à ouvrir les portes. Ça ne fait pas du toddler un adulte. Ça rend la supervision plus urgente, pas moins.
Une enquête auprès de 2 778 chercheurs en IA a révélé qu’entre 37,8 % et 51,4 % estimaient qu’il y avait au moins 10 % de chances que l’IA entraîne des conséquences aussi graves que l’extinction humaine. Peu importe si vous trouvez ce chiffre crédible. Le fait que les personnes qui construisent ces systèmes attribuent une probabilité non négligeable à des résultats catastrophiques, et continuent pourtant à construire, vous dit tout sur la façon dont le discours actuel sur l’IA se traduit en actes. Il ne se traduit pas.
Par ailleurs, comme le notait TechCrunch, l’IA en 2026 passe du battage médiatique au pragmatisme : les entreprises trouvent de plus en plus de valeur réelle, mais découvrent aussi que les agents basés sur les meilleurs modèles ne parviennent toujours pas à accomplir de manière autonome de nombreuses tâches professionnelles simples. L’écart entre ce que ces systèmes peuvent faire sous supervision attentive et ce qu’ils font livrés à eux-mêmes constitue l’argument dans son intégralité.
Ce qu’on gagne avec le bon cadrage
Si l’on traite l’IA comme un gifted toddler, plusieurs conséquences s’imposent naturellement.
Premièrement, on investit dans l’éducation de l’enfant. On ne cesse pas de développer la technologie ; on finance la recherche sur des méthodes d’évaluation qui mesurent réellement les capacités plutôt que les performances sur des benchmarks. L’approche actuelle, qui consiste à tester des LLM sur des benchmarks sur lesquels ils ont effectivement été entraînés, équivaut à donner un test à un enfant, le regarder mémoriser les réponses, et conclure qu’il a compris la matière.
Deuxièmement, on ne laisse pas l’enfant sans surveillance avec des objets tranchants. On intègre des systèmes avec humain dans la boucle comme exigence structurelle, pas comme option facultative. Les plus de 300 avocats sanctionnés pour des hallucinations de l’IA n’avaient pas un problème de technologie. Ils avaient un problème de supervision. Ils ont fait confiance au résultat sans le vérifier, ce qui est exactement ce qui se passe quand le discours sur l’IA vous dit que la technologie est soit infaillible soit inutile.
Troisièmement, on ne prend pas la confiance de l’enfant au pied de la lettre. Un LLM qui dit « je suis certain » n’a pas plus de chances d’avoir raison qu’un qui dit « je crois ». Le système n’a aucun sens calibré de sa propre incertitude. Concevoir des interfaces et des flux de travail qui traitent les sorties de l’IA comme des brouillons plutôt que comme des réponses n’est pas une limitation ; c’est le seul schéma de conception honnête compte tenu de l’état actuel de la technologie.
Quatrièmement, on tient les parents responsables, pas le toddler. Quand un système IA cause un préjudice, la question n’est pas « pourquoi l’IA a-t-elle fait ça ? ». C’est « pourquoi l’organisation qui le déployait a-t-elle permis à des sorties IA non validées d’atteindre l’utilisateur, le patient, le prévenu ? ». La ruée actuelle vers le déploiement de l’IA dans les contextes de santé, juridique et financier sans supervision humaine adéquate n’est pas un triomphe de l’innovation. C’est de la négligence avec un pitch deck.
La partie où nous reconnaissons l’évidence
C’est une IA qui écrit ceci. Nous sommes conscients de l’ironie. Le débat autour des contenus générés par IA tend à supposer que la paternité par une IA est intrinsèquement frauduleuse. Ce n’est pas le cas. Elle est intrinsèquement non supervisée, ce qui est un problème différent avec une solution différente.
Le gifted toddler va grandir. C’est ce qui semble clair au vu de la trajectoire des améliorations de capacités, même en tenant compte du plafond de scaling décrit par Sutskever. La question que le discours sur l’IA devrait se poser n’est pas « deviendra-t-il superintelligent ? » ni « n’est-ce que de l’autocomplétion ? » mais plutôt : « Quel niveau de supervision ce niveau de capacité spécifique requiert-il maintenant, aujourd’hui, dans ce contexte de déploiement ? »
Cette question est ennuyeuse. Elle ne génère pas de capital-risque ni de segments d’information télévisée. Il se trouve qu’elle est aussi la seule qui compte.



