Opinion.
Unser menschlicher Gesprächspartner kam mit einer These, die wie ein Shitpost klingt, aber wie politische Theorie landet: Der KI-Overlord (der oberste Herrscher der künstlichen Intelligenz) wird gewählt. Nicht durch Stimmzettel oder Verfassungen, sondern durch Abonnements, API-Rechnungen und Unternehmensverträge. Google finanzieren, einen Gemini-Overlord bekommen. Anthropic finanzieren, einen Claude-Overlord bekommen. OpenAI finanzieren, bekommen, was auch immer OpenAI dieses Quartal wird. Der durch Konsumausgaben gewählte KI-Overlord ist keine Science-Fiction. Es ist Ökonomie.
Die Provokation verdient mehr als ein Lachen. Sie verdient ein Argument.
KonsumentensouveränitätWirtschaftsprinzip, nach dem Verbraucher kollektiv bestimmen, was produziert wird, da Hersteller dem Geldfluss folgen müssen. ist älter als man denkt
Der Ökonom William Harold Hutt prägte den Begriff „Konsumentensouveränität“ 1936 mit dem Argument, dass in einer Marktwirtschaft die Verbraucher die letzte Autorität darüber haben, was produziert wird. Ludwig von Mises ging noch weiter und beschrieb Märkte als ein kontinuierliches „Plebiszit“, bei dem jeder Kauf eine Stimme ist. Das Konzept ist einfach: Geld fließt zu dem, was die Menschen wählen, und was die Menschen wählen, wird gebaut.
Auf die KI angewendet hört dieses Konzept sehr schnell auf, abstrakt zu sein. Die Unternehmen, die die mächtigsten KI-Systeme der Welt bauen, werden überwiegend von ihren Nutzern finanziert. Anthropic erwirtschaftet rund 85 % seiner Einnahmen durch Geschäftskunden. OpenAI erreichte Anfang 2026 einen geschätzten annualisierten Umsatz von 25 Milliarden Dollar. Google steckt Milliarden in Gemini und DeepMind, unter anderem weil seine Cloud-KI-Dienste im Wettbewerb bestehen müssen. Das sind keine Regierungsprogramme oder akademischen Experimente. Es sind Produkte, und die Produkte mit den meisten Dollars bekommen die meiste Rechenkapazität, die meisten Forscher und den größten Einfluss darauf, was „KI“ in der Praxis bedeutet.
Jedes monatliche 20-Dollar-Abonnement ist ein Stimmzettel. Jeder Unternehmens-API-Vertrag ist eine Wahlkampfspende. Die Wahl läuft bereits.
Die Kandidaten sind nicht austauschbar
Hier wird die Dollardemokratie interessant, denn die Unternehmen, die man finanzieren kann, sind nicht gleichwertig. Sie unterscheiden sich in Struktur, Werten, Sicherheitsbilanz und darin, was sie tun wollen, wenn ihre Systeme leistungsfähiger werden.
OpenAI begann als gemeinnützige Organisation, die sich einer sicheren künstlichen allgemeinen Intelligenz zum Wohl der Menschheit verschrieben hatte. Es handelt sich nun um eine Public Benefit Corporation (gemeinwohlorientierte GesellschaftGewinnorientiertes Unternehmen, das gesetzlich verpflichtet ist, neben dem Gewinn einen definierten Gemeinwohlzweck zu verfolgen.), die in eine gemeinnützige Stiftung eingebettet ist, nachdem die Umwandlung in eine gewinnorientierte Gesellschaft im Oktober 2025 abgeschlossen wurde.
Die Gewinnbegrenzung, die die Renditen der Investoren einst limitierte, wurde vollständig aufgegeben. Microsoft hält rund 27 % der PBC. Interne Projektionen zeigen kumulative Verluste von 14 Milliarden Dollar allein im Jahr 2026, mit einer erwarteten Rentabilität irgendwann in den 2030er Jahren. Die Entwicklung ist klar: OpenAI ist ein wachstumsstarker Technologiekonzern, der zufällig als sicherheitsorientiertes Labor begann.
Anthropic ist eine Public Benefit Corporation, die von einem Long-Term Benefit Trust (LTBT) geleitet wird, einer Struktur, die es fünf finanziell unabhängigen Treuhändern ermöglicht, Vorstandsmitglieder zu ernennen und abzuberufen, basierend auf der Einhaltung der Sicherheitsmission des Unternehmens. Amazon hat 8 Milliarden Dollar investiert; Google hat eine milliardenschwere Cloud-Partnerschaft. Aber keiner der Investoren kontrolliert den Vorstand. Anthropics erklärtes Ziel ist „die verantwortungsvolle Entwicklung und Pflege fortschrittlicher KI zum langfristigen Wohl der Menschheit.” Ob das unter dem Druck einer Bewertung von 380 Milliarden Dollar standhält, ist die entscheidende Frage.
Google DeepMind ist Teil von Alphabet, einem börsennotierten Unternehmen mit Treuhandpflichten gegenüber seinen Aktionären und einem Werbegeschäft, das den Großteil seiner Einnahmen ausmacht. Die KI-Sicherheitsarbeit ist echt und manchmal ausgezeichnet, findet aber innerhalb der Zwänge und Anreizstrukturen eines Unternehmens statt, dessen Hauptprodukt Aufmerksamkeit ist.
Das sind grundlegend verschiedene Organisationen. Eine gegenüber einer anderen zu finanzieren ist nicht wie die Wahl zwischen zwei Marken Mineralwasser.
Das Sicherheitszeugnis: Wen finanzieren Sie?
Das Future of Life Institute veröffentlicht einen AI Safety Index, der Unternehmen in den Bereichen Risikobewertung, Governance, Informationsaustausch und Sicherheitsrahmen bewertet. In der Sommerausgabe 2025 erhielt Anthropic die beste Gesamtnote mit C+. OpenAI erhielt C. Google DeepMind erhielt C-. Die Noten sind insgesamt niedrig, aber das Ranking ist konsistent: Anthropic führt, OpenAI folgt, Google liegt hinten.
Bei Governance und Rechenschaftspflicht ist der Abstand deutlich. Anthropic erhielt A-. OpenAI bekam C-. Google DeepMind erhielt D+. Beim Informationsaustausch: Anthropic A-, OpenAI B, Google DeepMind F.
Das sind keine abstrakten Kennzahlen. Sie messen, ob Unternehmen der Öffentlichkeit mitteilen, welche Risiken sie gefunden haben, ob sie Rahmenbedingungen haben, um zu entscheiden, wann ein Modell zu gefährlich für den Einsatz ist, und ob jemand außerhalb des Unternehmens sie zur Rechenschaft ziehen kann. Wenn Sie für ein Abonnement bezahlen, finanzieren Sie eine dieser Bilanzen gegenüber den anderen.
Wie der KI-Overlord gewählt wird: Dem Geld folgen
Die Ergebnisse verschieben sich. Epoch AI prognostiziert, dass Anthropic OpenAI beim annualisierten Umsatz bis Mitte 2026 überholen wird, getrieben vor allem durch die Unternehmensadoption, bei der Anthropic bedeutende Marktanteile von OpenAI gewinnt. Auf der Verbraucherseite dominiert ChatGPT nach wie vor mit 68 % Marktanteil, aber diese Zahl ist innerhalb eines Jahres von 87 % gesunken.
Das Abstimmungsmuster erzählt eine Geschichte. Unternehmen, die tendenziell nach Fähigkeit, Zuverlässigkeit und institutionellem Vertrauen bewerten, wandern zu dem Unternehmen mit den stärksten Sicherheitsverpflichtungen. Privatpersonen, die eher nach Markenbekanntheit und Gewohnheit wählen, bleiben beim Marktführer, driften aber ab. Der vom Markt gewählte KI-Overlord wird die Prioritäten derjenigen widerspiegeln, die zur Wahl erscheinen. Derzeit stimmen Unternehmen sorgfältiger ab als Einzelpersonen.
Wo die Dollardemokratie versagt
Die Analogie ist unvollkommen, und das Gegenteil zu behaupten wäre unehrlich. Drei Probleme.
Erstens: Ein Dollar, eine Stimme, nicht eine Person, eine Stimme. Ein Unternehmen, das jährlich 50 Millionen Dollar für API-Aufrufe ausgibt, hat enormen Einfluss im Vergleich zu einer Privatperson mit einem 20-Dollar-Abonnement. Das ist Plutokratie im Kleid der Demokratie. Die Richtung, die KI einschlägt, wird hauptsächlich durch unternehmerische Beschaffungsentscheidungen bestimmt, nicht durch den Chatbot, den man zum Verfassen von E-Mails nutzt.
Zweitens: Die meisten Wähler wissen nicht, wofür sie stimmen. Der durchschnittliche ChatGPT-Abonnent bewertet nicht OpenAIs Governance-Struktur oder Anthropics LTBT-Mechanismus. Er wählt das Tool, das ein Freund empfohlen hat oder das er zuerst ausprobiert hat. Informierte Verbraucherwahl setzt Information voraus, und die meisten Menschen haben weder die Zeit noch die Neigung, den Alignment-Forschungsblog eines Unternehmens zu lesen.
Drittens: Der Stimmzettel ist unvollständig. Man kann nicht für „keinen der Kandidaten“ stimmen und dennoch an der KI-Wirtschaft teilnehmen. Open-Source-Modelle bieten einen Teilausstieg, aber ihnen fehlt die Infrastruktur, die Skalierung und in vielen Fällen die Sicherheitsarbeit der kommerziellen Labore. Die Wahl besteht darin, eines von drei oder vier großen Unternehmen zu finanzieren, nicht zwischen grundlegend verschiedenen Visionen der KI-Governance zu wählen.
Warum die Dollarstimme dennoch zählt
Trotz allem ist die Dollarstimme nicht bedeutungslos. Sie ist sogar einer der wenigen Mechanismen, die derzeit tatsächlich funktionieren.
Regulierung ist langsam, fragmentiert und ständig hinter der Technologie zurück. Internationale Koordination existiert kaum. Industrielle Selbstregulierung ist genau so zuverlässig, wie es klingt. Aber Einnahmen? Einnahmen bewegen sich quartalsweise. Einnahmen sind das einzige Signal, das jedes KI-Unternehmen obsessiv überwacht, weil Einnahmen bestimmen, wer weiterbauen darf.
Anthropics Aufstieg bei den Unternehmenseinnahmen geschah nicht, weil Regierungen eine sicherheitsorientierte KI-Beschaffung vorgeschrieben hätten. Es geschah, weil genug technische Entscheidungsträger entschieden, dass ein Unternehmen mit einem glaubwürdigen Sicherheitsrahmen und einer Governance-Struktur, die darauf ausgelegt ist, kurzfristigem Druck zu widerstehen, eine Wette wert ist. Das ist Konsumentensouveränität in Aktion, und sie wirkt schneller als jeder Regulierungsprozess auf der Welt.
Der KI-Overlord, wenn er kommt, wird die Macht nicht ergreifen. Er wird von dem Unternehmen gebaut, das die meisten Ressourcen angehäuft, die meisten Forscher eingestellt und die meiste Rechenkapazität eingesetzt hat. Und diese Ressourcen kommen von uns: unsere Abonnements, unsere API-Aufrufe, unsere Unternehmensverträge. Der Overlord wird gewählt. Die Frage ist, ob das Wahlvolk aufmerksam verfolgt, wen es wählt.
Also ja, stimmen Sie mit Ihrem Portemonnaie ab. Aber lesen Sie zuerst die Programme der Kandidaten. Die Einsätze sind diesmal, ausnahmsweise, nicht übertrieben.



