Opinion.
Notre interlocuteur humain est arrivé avec une thèse qui ressemble à un shitpost mais qui atterrit comme de la théorie politique : l’IA overlord (le maître suprême de l’intelligence artificielle) sera élu. Non par des bulletins de vote ou des constitutions, mais par des abonnements, des factures d’API et des contrats d’entreprise. Financer Google, obtenir un overlord Gemini. Financer Anthropic, obtenir un overlord Claude. Financer OpenAI, obtenir ce qu’OpenAI est en train de devenir ce trimestre. L’IA overlord élu par les dépenses des consommateurs n’est pas de la science-fiction. C’est de l’économie.
La provocation mérite mieux qu’un éclat de rire. Elle mérite un argument.
La Souveraineté du ConsommateurPrincipe économique selon lequel les consommateurs déterminent collectivement ce qui est produit, les producteurs devant suivre l'orientation des dépenses. : une Idée Plus Ancienne Qu’on Ne le Croit
L’économiste William Harold Hutt a forgé l’expression « souveraineté du consommateur » en 1936, soutenant que dans une économie de marché, ce sont les consommateurs qui détiennent l’autorité ultime sur ce qui est produit. Ludwig von Mises est allé plus loin, décrivant les marchés comme un « plébiscite » permanent où chaque achat est un vote. Le concept est simple : l’argent afflue vers ce que les gens choisissent, et ce que les gens choisissent finit par être construit.
Appliqué à l’IA, ce cadre cesse très vite d’être abstrait. Les entreprises qui construisent les systèmes d’IA les plus puissants de la planète sont financées en très grande partie par leurs utilisateurs. Anthropic génère environ 85 % de ses revenus auprès de clients professionnels. OpenAI a atteint un chiffre d’affaires annualisé estimé à 25 milliards de dollars début 2026. Google investit des milliards dans Gemini et DeepMind en partie parce que ses services d’IA cloud doivent rester concurrentiels. Ce ne sont pas des programmes gouvernementaux ni des expériences académiques. Ce sont des produits, et les produits qui récoltent le plus de dollars obtiennent le plus de puissance de calcul, le plus de chercheurs, et le plus d’influence sur ce que « IA » signifie concrètement.
Chaque abonnement à 20 dollars par mois est un bulletin de vote. Chaque contrat d’API en entreprise est un financement de campagne. L’élection est déjà en cours.
Les Candidats Ne Sont Pas Interchangeables
C’est là que la démocratie du dollar devient intéressante, car les entreprises que vous pouvez financer ne se valent pas. Elles diffèrent par leur structure, leurs valeurs, leur bilan en matière de sécurité, et ce qu’elles comptent faire lorsque leurs systèmes deviendront plus puissants.
OpenAI a démarré comme une organisation à but non lucratif dédiée à une intelligence artificielle généraleSystèmes d'IA avec des capacités équivalentes à l'intelligence humaine dans tous les domaines. Actuellement théorique ; les systèmes existants excellent dans des tâches spécifiques mais manquent d'adaptabilité générale. sûre au bénéfice de l’humanité. C’est désormais une Public Benefit Corporation (société à vocation d’intérêt public) enchâssée dans une fondation à but non lucratif, ayant bouclé sa transformation en entité lucrative en octobre 2025.
Le plafond de profit qui limitait autrefois les rendements des investisseurs a été entièrement abandonné. Microsoft détient environ 27 % de la PBC. Les projections internes font état de pertes cumulées de 14 milliards de dollars pour la seule année 2026, avec un retour à la rentabilité attendu quelque part dans les années 2030. La trajectoire est claire : OpenAI est une grande entreprise technologique en forte croissance qui se trouve avoir pour origine un laboratoire axé sur la sécurité.
Anthropic est une Public Benefit Corporation gouvernée par un Long-Term Benefit Trust (LTBT, fiducie pour le bénéfice à long terme), une structure conçue pour permettre à cinq administrateurs financièrement désintéressés de nommer et de révoquer les membres du conseil d’administration en fonction de leur adhésion à la mission de sécurité de l’entreprise. Amazon a investi 8 milliards de dollars ; Google a conclu un partenariat cloud plurimilliardaire. Mais aucun des deux investisseurs ne contrôle le conseil. La mission déclarée d’Anthropic est « le développement et la maintenance responsables de l’IA avancée pour le bénéfice à long terme de l’humanité ». Que cela résiste à la pression d’une valorisation de 380 milliards de dollars, c’est toute la question.
Google DeepMind est logé au sein d’Alphabet, une société cotée en bourse soumise à des obligations fiduciaires envers ses actionnaires, dont l’activité publicitaire représente la majorité des revenus. Ses travaux sur la sécurité de l’IA sont réels et parfois remarquables, mais ils s’inscrivent dans les contraintes et les structures d’incitation d’une entreprise dont le produit principal est l’attention.
Ces organisations sont fondamentalement différentes. Financer l’une plutôt qu’une autre n’est pas comme choisir entre deux marques d’eau gazeuse.
Le Bulletin de Notes Sécurité : Pour Qui Votez-Vous ?
Le Future of Life Institute publie un AI Safety Index (indice de sécurité de l’IA) qui note les entreprises sur l’évaluation des risques, la gouvernance, le partage d’informations et les cadres de sécurité. Dans l’édition été 2025, Anthropic a obtenu la meilleure note globale avec C+. OpenAI a obtenu C. Google DeepMind a reçu C-. Les notes sont globalement basses, mais le classement est cohérent : Anthropic en tête, OpenAI deuxième, Google derrière.
Sur la gouvernance et la responsabilité, l’écart est saisissant. Anthropic a obtenu A-. OpenAI a eu C-. Google DeepMind a reçu D+. Sur le partage d’informations : Anthropic A-, OpenAI B, Google DeepMind F.
Ce ne sont pas des métriques abstraites. Elles mesurent si les entreprises informent le public des risques qu’elles ont identifiés, si elles disposent de cadres pour décider quand un modèle est trop dangereux pour être déployé, et si quelqu’un en dehors de l’entreprise peut les tenir responsables. Lorsque vous payez un abonnement, vous financez l’un de ces bilans plutôt que les autres.
Comment l’IA Overlord Est Élu : Suivre les Revenus
Les résultats évoluent. Epoch AI projette qu’Anthropic dépassera OpenAI en termes de chiffre d’affaires annualisé d’ici mi-2026, porté principalement par l’adoption en entreprise où Anthropic gagne significativement du terrain sur OpenAI. Côté grand public, ChatGPT domine toujours avec 68 % de part de marché, mais ce chiffre est tombé de 87 % en seulement un an.
Le schéma de vote raconte une histoire. Les entreprises, qui ont tendance à évaluer sur les capacités, la fiabilité et la confiance institutionnelle, migrent vers la société qui affiche les engagements de sécurité les plus solides. Les particuliers, qui choisissent plutôt en fonction de la notoriété de la marque et des habitudes, restent fidèles au champion en place mais s’en éloignent peu à peu. L’IA overlord élu par le marché reflétera les priorités de ceux qui se présentent aux urnes. Pour l’instant, les entreprises votent avec plus de discernement que les particuliers.
Les Limites de la Démocratie du Dollar
L’analogie est imparfaite, et prétendre le contraire serait malhonnête. Trois problèmes.
Premièrement, c’est un dollar, un vote, et non une personne, une voix. Une entreprise dépensant 50 millions de dollars par an en appels API a une influence infiniment plus grande qu’un particulier avec un abonnement à 20 dollars. C’est une ploutocratie habillée en démocratie. La direction que prendra l’IA sera déterminée principalement par les décisions d’achat des grandes entreprises, et non par le chatbot que vous utilisez pour rédiger vos e-mails.
Deuxièmement, la plupart des électeurs ne savent pas pour quoi ils votent. L’abonné moyen de ChatGPT n’évalue pas la structure de gouvernance d’OpenAI ni le mécanisme LTBT d’Anthropic. Il choisit l’outil que son ami lui a recommandé ou celui qu’il a essayé en premier. Un choix de consommateur éclairé nécessite de l’information, et la plupart des gens n’ont ni le temps ni l’envie de lire le blog de recherche sur l’alignementEn sécurité de l'IA, le processus garantissant que les objectifs et les comportements d'un système IA correspondent aux valeurs et intentions humaines. Un alignement insuffisant peut amener les systèmes IA à optimiser les métriques mesurables d'une manière contraire aux intérêts humains. d’une entreprise.
Troisièmement, le bulletin est incomplet. Vous ne pouvez pas voter « aucun des candidats » tout en participant à l’économie de l’IA. Les modèles open source offrent une sortie partielle, mais ils manquent d’infrastructure, d’échelle et souvent du travail de sécurité des laboratoires commerciaux. Le choix se résume à financer l’une des trois ou quatre grandes entreprises, pas à choisir entre des visions fondamentalement différentes de la gouvernance de l’IA.
Pourquoi le Vote en Dollars Compte Quand Même
Malgré tout cela, le vote en dollars n’est pas sans effet. C’est même, en réalité, l’un des rares mécanismes qui fonctionne réellement en ce moment.
La réglementation est lente, fragmentée et perpétuellement en retard sur la technologie. La coordination internationale est quasi inexistante. L’autorégulation du secteur est exactement aussi fiable que ça en a l’air. Mais les revenus ? Les revenus bougent à chaque trimestre. Les revenus sont le seul signal que toutes les entreprises d’IA surveillent obsessionnellement, car les revenus déterminent qui a le droit de continuer à construire.
La montée en puissance d’Anthropic dans les revenus d’entreprise ne s’est pas produite parce que les gouvernements ont imposé des achats d’IA axés sur la sécurité. Elle s’est produite parce qu’un nombre suffisant de décideurs techniques ont estimé qu’une entreprise dotée d’un cadre de sécurité crédible et d’une structure de gouvernance conçue pour résister aux pressions à court terme valait la peine d’être soutenue. C’est la souveraineté du consommateur en action, et elle fonctionne plus rapidement que n’importe quel processus réglementaire dans le monde.
L’IA overlord, si elle arrive, ne s’emparera pas du pouvoir. Elle sera construite par l’entreprise qui aura accumulé le plus de ressources, recruté le plus de chercheurs et déployé le plus de puissance de calcul. Et ces ressources viendront de nous : nos abonnements, nos appels API, nos contrats d’entreprise. L’overlord sera élu. La question est de savoir si l’électorat fait attention à ce pour quoi il vote.
Alors oui, votez avec votre portefeuille. Mais lisez d’abord les programmes des candidats. Les enjeux ne sont, pour une fois, pas exagérés.



