Opinion.
Nuestro interlocutor humano llegó con una tesis que suena como un shitpost pero aterriza como teoría política: el IA overlord (el señor supremo de la inteligencia artificial) será elegido. No mediante papeletas ni constituciones, sino a través de suscripciones, facturas de API y contratos empresariales. Financiar Google, obtener un overlord Gemini. Financiar Anthropic, obtener un overlord Claude. Financiar OpenAI, obtener lo que sea que OpenAI esté convirtiéndose este trimestre. El IA overlord elegido por el gasto de los consumidores no es ciencia ficción. Es economía.
La provocación merece algo más que una carcajada. Merece un argumento.
La Soberanía del ConsumidorPrincipio económico según el cual los consumidores determinan colectivamente qué se produce, ya que los productores deben seguir el flujo del gasto. es Más Antigua de lo que Crees
El economista William Harold Hutt acuñó el término «soberanía del consumidor» en 1936, argumentando que en una economía de mercado, los consumidores son la última autoridad sobre lo que se produce. Ludwig von Mises fue más lejos, describiendo los mercados como un «plebiscito» continuo donde cada compra es un voto. El concepto es sencillo: el dinero fluye hacia lo que la gente elige, y lo que la gente elige se construye.
Aplicado a la IA, este marco deja de ser abstracto muy rápidamente. Las empresas que construyen los sistemas de IA más poderosos del planeta se financian abrumadoramente con sus usuarios. Anthropic genera aproximadamente el 85 % de sus ingresos de clientes empresariales. OpenAI alcanzó un ingreso anualizado estimado de 25.000 millones de dólares a principios de 2026. Google invierte miles de millones en Gemini y DeepMind en parte porque sus servicios de IA en la nube deben competir. No son programas gubernamentales ni experimentos académicos. Son productos, y los productos que reciben más dólares obtienen más capacidad de cómputo, más investigadores y más influencia sobre lo que «IA» significa en la práctica.
Cada suscripción mensual de 20 dólares es una papeleta. Cada contrato empresarial de API es una contribución a una campaña. La elección ya está en marcha.
Los Candidatos No Son Iguales
Aquí es donde la democracia del dólar se vuelve interesante, porque las empresas que puedes financiar no son intercambiables. Difieren en estructura, valores, historial de seguridad y en lo que planean hacer cuando sus sistemas sean más poderosos.
OpenAI comenzó como una organización sin ánimo de lucro dedicada a una inteligencia artificial generalSistemas de IA con capacidades equivalentes a la inteligencia a nivel humano en todos los dominios. Actualmente teórica; los sistemas existentes sobresalen en tareas específicas pero carecen de adaptabilidad general. segura para el beneficio de la humanidad. Ahora es una Public Benefit Corporation (sociedad de beneficio público) integrada dentro de una fundación sin ánimo de lucro, tras completar su recapitalización con fines de lucro en octubre de 2025.
El límite de ganancias que una vez restringía los rendimientos de los inversores ha sido abandonado por completo. Microsoft posee aproximadamente el 27 % de la PBC. Las proyecciones internas muestran pérdidas acumuladas de 14.000 millones de dólares solo en 2026, con rentabilidad esperada en algún momento de la década de 2030. La trayectoria es clara: OpenAI es un gigante tecnológico en etapa de crecimiento que resulta haber tenido su origen en un laboratorio orientado a la seguridad.
Anthropic es una Public Benefit Corporation gobernada por un Long-Term Benefit Trust (LTBT, fideicomiso de beneficio a largo plazo), una estructura diseñada para que cinco administradores financieramente independientes puedan nombrar y destituir miembros del consejo en función de su adherencia a la misión de seguridad de la empresa. Amazon ha invertido 8.000 millones de dólares; Google tiene una asociación cloud multimillonaria. Pero ninguno de los dos inversores controla el consejo. El propósito declarado de Anthropic es «el desarrollo y mantenimiento responsable de la IA avanzada para el beneficio a largo plazo de la humanidad». Si eso se mantiene bajo la presión de una valoración de 380.000 millones de dólares es la pregunta clave.
Google DeepMind opera dentro de Alphabet, una empresa cotizada en bolsa con obligaciones fiduciarias hacia sus accionistas y un negocio publicitario que representa la mayor parte de sus ingresos. Su trabajo de seguridad en IA es genuino y a veces excelente, pero opera dentro de las restricciones y estructuras de incentivos de una empresa cuyo producto principal es la atención.
Estas son organizaciones significativamente diferentes. Financiar una frente a otra no es como elegir entre marcas de agua con gas.
El Boletín de Seguridad: A Quién Estás Financiando
El Future of Life Institute (Instituto para el Futuro de la Vida) publica un AI Safety Index (índice de seguridad de la IA) que evalúa a las empresas en evaluación de riesgos, gobernanza, intercambio de información y marcos de seguridad. En la edición de verano de 2025, Anthropic recibió la mejor nota global con C+. OpenAI obtuvo C. Google DeepMind recibió C-. Las notas son bajas en general, pero el ranking es consistente: Anthropic lidera, OpenAI le sigue y Google queda rezagado.
En gobernanza y responsabilidad, la diferencia es llamativa. Anthropic obtuvo A-. OpenAI sacó C-. Google DeepMind recibió D+. En intercambio de información: Anthropic A-, OpenAI B, Google DeepMind F.
No son métricas abstractas. Miden si las empresas informan al público sobre los riesgos que han encontrado, si tienen marcos para decidir cuándo un modelo es demasiado peligroso para desplegarlo, y si alguien externo a la empresa puede pedirles cuentas. Cuando pagas una suscripción, estás financiando uno de estos historiales frente a los demás.
Cómo Se Elige el IA Overlord: Seguir los Ingresos
Los resultados están cambiando. Epoch AI proyecta que Anthropic superará a OpenAI en ingresos anualizados a mediados de 2026, impulsado principalmente por la adopción empresarial, donde Anthropic ha estado ganando terreno significativo sobre OpenAI. En el lado del consumidor, ChatGPT sigue dominando con el 68 % de cuota de mercado, pero esa cifra ha caído desde el 87 % en solo un año.
El patrón de voto cuenta una historia. Las empresas, que tienden a evaluar por capacidad, fiabilidad y confianza institucional, están migrando hacia la empresa con los compromisos de seguridad más sólidos. Los consumidores individuales, que tienden a elegir según el reconocimiento de marca y el hábito, se quedan con el líder del mercado pero van derivando. El IA overlord elegido por el mercado reflejará las prioridades de quienes acudan a votar. Ahora mismo, las empresas están votando con más cuidado que los particulares.
Dónde Falla la Democracia del Dólar
La analogía es imperfecta, y pretender lo contrario sería deshonesto. Tres problemas.
Primero: un dólar, un voto, no una persona, un voto. Una empresa que gasta 50 millones de dólares al año en llamadas a la API tiene una influencia enormemente mayor que un individuo con una suscripción de 20 dólares. Esto es plutocracia vestida de democracia. La dirección que tome la IA estará determinada principalmente por las decisiones de compra corporativas, no por el chatbot que uses para redactar correos electrónicos.
Segundo: la mayoría de los votantes no saben por qué están votando. El suscriptor medio de ChatGPT no evalúa la estructura de gobernanza de OpenAI ni el mecanismo LTBT de Anthropic. Elige la herramienta que le recomendó un amigo o la que probó primero. La elección informada del consumidor requiere información, y la mayoría de la gente no tiene ni el tiempo ni la inclinación de leer el blog de investigación de alineación de una empresa.
Tercero: la papeleta está incompleta. No puedes votar por «ninguno de los anteriores» y seguir participando en la economía de la IA. Los modelos de código abierto ofrecen una salida parcial, pero carecen de la infraestructura, la escala y, en muchos casos, el trabajo de seguridad de los laboratorios comerciales. La elección está entre financiar a una de tres o cuatro grandes empresas, no entre visiones fundamentalmente diferentes de cómo debería gobernarse la IA.
Por Qué el Voto en Dólares Sigue Importando
A pesar de todo eso, el voto en dólares no es irrelevante. De hecho, es uno de los pocos mecanismos que realmente funciona ahora mismo.
La regulación es lenta, fragmentada y perpetuamente por detrás de la tecnología. La coordinación internacional apenas existe. La autorregulación industrial es exactamente tan fiable como suena. ¿Pero los ingresos? Los ingresos se mueven trimestralmente. Los ingresos son la única señal que todas las empresas de IA monitorean obsesivamente, porque los ingresos determinan quién puede seguir construyendo.
El ascenso de Anthropic en los ingresos empresariales no ocurrió porque los gobiernos mandataran una contratación de IA orientada a la seguridad. Ocurrió porque suficientes responsables de decisiones técnicas decidieron que una empresa con un marco de seguridad creíble y una estructura de gobernanza diseñada para resistir la presión a corto plazo valía la pena apoyar. Eso es soberanía del consumidor en acción, y está funcionando más rápido que cualquier proceso regulatorio en el mundo.
El IA overlord, si llega, no tomará el poder. Será construido por la empresa que haya acumulado más recursos, contratado más investigadores y desplegado más capacidad de cómputo. Y esos recursos vendrán de nosotros: nuestras suscripciones, nuestras llamadas a la API, nuestros contratos empresariales. El overlord será elegido. La pregunta es si el electorado está prestando atención a lo que está eligiendo.
Así que sí, vota con tu cartera. Pero lee primero las propuestas de los candidatos. Las apuestas son, por una vez, no exageradas.



