Opinion.
Die Nutzerabsicht soll in der Produktentwicklung sakrosankt sein. Sie tippen eine Suchanfrage, klicken auf eine Schaltfläche, treffen eine Auswahl, und das System führt sie aus. Einer unserer Redakteure bat uns zu untersuchen, was passiert, wenn dieser Vertrag bricht, wenn große Plattformen entscheiden, dass sie besser wissen als Sie, was Sie wirklich wollten. Das Problem erweist sich als gut begründet, gut dokumentiert und wahrscheinlich noch weiter zunehmend.
Ein einfacher Test. Gehen Sie zu Google, setzen Sie einen Begriff in Anführungszeichen und suchen Sie. Anführungszeichen haben seit den 1990er Jahren in jedem Suchdienst genau eines bedeutet: Finden Sie genau diese Phrase. Google tut das nicht mehr zuverlässig. Suchen Sie nach “einer exakten Phrase” und Sie erhalten Ergebnisse, die weder die Phrase noch alle Wörter darin enthalten. Der Operator existiert noch. Er funktioniert nur nicht immer. Googles eigener Search Liaison hat eingeräumt, dass Suchen in Anführungszeichen möglicherweise keine exakten Treffer zurückgeben. Die Erklärung des Unternehmens: Seine Systeme bestimmen manchmal, dass andere Ergebnisse “hilfreicher” sind.
Lesen Sie das noch einmal. Sie haben der Maschine genau gesagt, was Sie wollten. Die Maschine hat entschieden, dass Sie falsch lagen.
Das Muster der Nutzerabsichts-Umgehung
Dies ist kein Google-spezifisches Problem. Es ist eine strukturelle Tendenz, die entsteht, sobald eine Plattform ausreichende Größe und Marktdominanz erreicht, sodass Nutzer praktisch nicht mehr wechseln können. Der Mechanismus ist unkompliziert: Sobald die Wechselkosten hoch genug sind, kann die Plattform damit beginnen, das, was sie Ihnen zeigen möchte, durch das zu ersetzen, was Sie zu sehen gebeten haben, weil Sie nirgendwo sonst hingehen können.
YouTubes Suchfunktion ist das auffälligste Beispiel nach Google selbst. Suchen Sie nach einem bestimmten Videotitel, Ersteller oder Thema, und YouTube liefert ein paar vage verwandte Ergebnisse, gefolgt von einer Wand algorithmisch empfohlener Inhalte, die nichts mit Ihrer Anfrage zu tun haben. Die Plattform hat ihre Suchleiste schrittweise von einem Suchwerkzeug in eine weitere Empfehlungsfläche verwandelt. Sie haben eine Anfrage eingegeben; YouTube hat “Zeig mir, was die Sehzeit maximiert” gehört. Nutzer haben dies ausführlich dokumentiert, und YouTube hat es nicht bestritten. Der Anreiz ist klar: Eine Suche, die genau das zurückgibt, was Sie wollten, könnte Sie zu einem einzigen Video schicken. Ein Algorithmus, der Ihre Suche ignoriert und optimierte Inhalte serviert, hält Sie am Scrollen.
X (ehemals Twitter) ist noch weiter gegangen. Der “Für dich”-Feed ist die Standardansicht und bringt aggressiv Inhalte von Accounts, denen Sie nicht folgen, zu Themen, für die Sie kein Interesse bekundet haben, mit Engagement-Mustern, die auf algorithmische VerstärkungAlgorithmische Promotion von Inhalten über die organische Reichweite hinaus, unabhängig von Relevanz oder Benutzerabsicht. Plattformen nutzen dies, um Engagement-Metriken zu maximieren, unabhängig davon, was Benutzer angefordert haben. statt auf organische Reichweite hindeuten. Sie können zu “Folge ich” wechseln, das theoretisch nur Accounts zeigt, denen Sie folgen, aber auch dieser Feed ist nicht chronologisch und enthält eingefügte Inhalte. Die Plattform ergänzt Ihre Auswahl nicht, sie ersetzt sie. Die Nutzerabsicht ist in diesem Modell ein Vorschlag, keine Direktive.
Amazons Suchergebnisse sind ein weiteres Fallbeispiel. Suchen Sie nach einem bestimmten Produkt und die ersten Ergebnisse sind häufig “gesponsert”, das heißt, Werbetreibende haben für die Platzierung bezahlt, unabhängig von der Relevanz. Amazons erste Ergebnisseite für viele Suchanfragen ist inzwischen stark von gesponserten Einträgen dominiert. Das Produkt, nach dem Sie gesucht haben, ist möglicherweise auf der Seite, wurde aber hinter Produkten vergraben, die dafür bezahlt haben. Amazon-Händler zahlen nach Schätzungen 50 % oder mehr ihres Umsatzes in verschiedenen Plattformgebühren, laut Marketplace Pulse. Diese Kosten werden an Verbraucher weitergegeben, bedeuten aber auch, dass Suchergebnisse zunehmend Werbebudgets statt Relevanz widerspiegeln.
Die wissenschaftliche Evidenz zur Nutzerabsicht
Das ist nicht nur Nutzerfrustration im Gewand von Analysen. Forscher der Universität Leipzig und der Bauhaus-Universität Weimar haben eine einjährige Studie mit 7.392 Produktbewertungs-Suchbegriffen auf Google, Bing und DuckDuckGo durchgeführt. Ihre 2024 veröffentlichten Ergebnisse waren eindeutig: Höher eingestufte Seiten waren im Durchschnitt stärker für Suchalgorithmen optimiert, stärker durch Affiliate-Marketing monetarisiert und zeigten Anzeichen geringerer Textqualität. Die Mehrheit der hochrangigen Produktbewertungen verwendete Affiliate-Marketing, obwohl nur ein kleiner Teil der Produktbewertungen im breiteren Web überhaupt Affiliate-Links verwendet. Die Suchmaschinen förderten nicht die besten Inhalte. Sie förderten die am stärksten optimierten Inhalte, was grundlegend etwas anderes ist.
Die Studie bestätigte, was Nutzer seit Jahren sagten: Suchergebnisse werden schlechter. Nicht im vagen, nostalgischen Sinne von “das Internet war früher besser”, sondern als messbarer, dokumentierter Rückgang im Verhältnis zwischen dem, wonach Nutzer suchen, und dem, was sie erhalten.
Warum das passiert: der dreiphasige Verfall
Cory Doctorows Konzept der “enshittificationEin dreiphasiges Muster, bei dem Plattformen zunächst Nutzer anlocken, diese dann für Geschäftskunden ausbeuten und diese Geschäftskunden ausbeuten, während alle früheren Nutznießer beeinträchtigt werden. Geprägt von Cory Doctorow.” (systematischen Plattformverschlechterung) beschreibt den Mechanismus mit unangenehmer Präzision. Plattformen folgen einem Lebenszyklus: Zunächst sind sie gut für Nutzer, um eine Zuschauerschaft aufzubauen. Dann nutzen sie Nutzer aus, um Geschäftskunden (Werbetreibende, Händler, Inhaltsersteller) zu gewinnen. Schließlich nutzen sie diese Geschäftskunden aus, um maximalen Wert für die Plattform selbst zu extrahieren. In jeder Phase verschlechtert die Plattform das Erlebnis für den vorherigen Nutznießer.
Googles Gründer verstanden dieses Risiko von Anfang an. In ihrem ursprünglichen Stanford-Papier von 1998 schrieben Sergey Brin und Larry Page, dass “werbebasierte Suchmaschinen inhärent zugunsten der Werbetreibenden und zuungunsten der Bedürfnisse der Verbraucher voreingenommen sein werden.” Sie beschrieben eine hypothetische Gefahr. Siebenundzwanzig Jahre später beschreiben sie ihr eigenes Unternehmen.
Das Muster ist nicht einzigartig für die Tech-Branche. Es ist ein Standardergebnis, wenn ein Unternehmen genügend Marktmacht gewinnt, dass die Kosten des Kundenverlusts geringer werden als die durch die Verschlechterung ihrer Erfahrung erzielten Einnahmen. Fluggesellschaften haben es mit dem Sitzabstand gemacht. Kabelunternehmen haben es mit Bundles gemacht. Banken haben es mit Überziehungsgebühren gemacht. Der Unterschied bei digitalen Plattformen ist Geschwindigkeit und Maßstab: Sie können die Verschlechterung algorithmisch anpassen, in Echtzeit, für einzelne Nutzer, und genau messen, wie viel schlechter sie es machen können, bevor jemand tatsächlich geht.
Die Ersetzung der Nutzerabsicht durch algorithmisches Urteil
Besonders korrosiv ist die implizierte Erkenntnistheorie. Wenn eine Suchmaschine Ihre Suchanfrage in Anführungszeichen außer Kraft setzt, wenn eine Videoplattform Ihre Suchbegriffe ignoriert, wenn ein soziales Netzwerk Ihren Feed mit Inhalten füllt, die Sie nicht angefordert haben, stellt die Plattform eine Behauptung auf: Sie weiß besser als Sie, was Sie wollen. Und sie könnte sogar Recht haben, in dem engen Sinne, dass ihre Engagement-MetrikenMessbare Indikatoren für Benutzerinteraktion—Klicks, Verweildauer, Scrolls—die Plattformen als Ersatz für Zufriedenheit optimieren, obwohl sie oft zwanghaftes Verhalten gegenüber beabsichtigter Zufriedenheit belohnen. wahrscheinlich steigen. Sie klicken wahrscheinlich auf das empfohlene Video. Sie verbringen wahrscheinlich mehr Zeit mit dem Scrollen im algorithmischen Feed als im chronologischen.
Aber “Sie haben darauf geklickt” ist nicht dasselbe wie “Sie wollten es.” Spielautomaten haben hervorragende Engagement-Metriken. Die Frage ist nicht, ob Plattformen durch Umgehung der Nutzerabsicht mehr Aufmerksamkeit gewinnen können. Die Frage ist, ob diese Aufmerksamkeit freiwillig gegeben oder strukturell erzwungen ist. Wenn alle Alternativen verschlechtert oder beseitigt wurden, wenn Wechselkosten Jahre an Daten, sozialen Verbindungen und eingeprägten Gewohnheiten umfassen, muss der Satz “der Nutzer hat sich entschieden zu bleiben” sehr viel Arbeit leisten.
Ted Gioia hat den Endzustand dieser Entwicklung als “Dopaminkultur” beschrieben, wo Plattformen von der Bereitstellung gesuchter Inhalte zur Lieferung von Reizen übergehen, die zwanghaftes Engagement auslösen. Der Unterschied ist wichtig: Suchen ist aktiv, intentional und endet, wenn man befriedigt ist. Zwanghaftes Engagement ist passiv, ungewollt und endet nicht, weil Befriedigung nie das Designziel war. Der Algorithmus will nicht, dass Sie finden, was Sie suchen. Er will, dass Sie weitersuchen.
Die stille Abschaffung der Nutzerkontrollen
Ebenso aufschlussreich ist, was Plattformen entfernen. Google hat im Laufe der Jahre schrittweise erweiterte Suchoperatoren abgebaut. Der “+”-Operator, der das Vorhandensein eines Begriffs erzwang, wurde 2011 entfernt (offiziell, um das Symbol für Google+ freizugeben, ein Produkt, das nicht mehr existiert). Das “verbatim”-Tool, das die Exakt-Treffer-Funktion ersetzen sollte, ist in der Oberfläche vergraben und liefert nicht immer wörtliche Ergebnisse. Boolesche Operatoren funktionieren inkonsistent. Die Botschaft ist klar: Sie sollen keine präzise Kontrolle über Ihre Suchergebnisse haben. Präzision ist der Feind des Engagements.
YouTube hat für viele Suchanfragen die Möglichkeit entfernt, Ergebnisse nach Datum zu sortieren. Twitter hat die chronologische Sortierung als Standard abgeschafft. Facebooks Newsfeed hat Nutzern nie eine sinnvolle Kontrolle über seinen Ranking-Algorithmus gegeben. Instagram wechselte 2016 von chronologischen zu algorithmischen Feeds, trotz weit verbreitetem Nutzerwiderstand. In jedem Fall erklärte das Unternehmen, die Änderung sei das, was Nutzer “wirklich” wollten, oder sie “verbessere das Erlebnis”, oder sie “mache relevantere Inhalte sichtbar.” In jedem Fall hatten Nutzer nicht um die Änderung gebeten und viele protestierten aktiv dagegen.
Das Muster ist einheitlich genug, um eine Designphilosophie zu begründen: Nutzer sollen nicht zu genau spezifizieren können, was sie wollen, weil die präzise Erfüllung der Nutzerabsicht kommerziell suboptimal ist.
Wie die Achtung der Nutzerabsicht aussehen würde
Eine Plattform, die die Nutzerabsicht respektierte, würde etwas bemerkenswert Einfaches tun: Wenn Sie nach etwas suchen, zeigt sie Ihnen genau das. Wenn Sie eine Phrase in Anführungszeichen setzen, findet sie diese Phrase. Wenn Sie bestimmten Accounts folgen, zeigt sie Ihnen diese Accounts. Wenn Sie nach Datum sortieren, sortiert sie nach Datum. Wenn Sie auf “Suchen” klicken, sucht sie.
Nichts davon ist technisch schwierig. Das alles war vor fünfzehn Jahren Standardfunktionalität. Die Technologie hat sich nicht zurückentwickelt. Das Geschäftsmodell schon. Was Nutzer verloren haben, war nicht die Fähigkeit, sondern die Priorität. Sie wechselten vom Kunden zum Produkt, und wenn man das Produkt ist, sind die eigenen Präferenzen eine zu optimierende Variable, keine zu respektierende Einschränkung.
Die Lösung ist keine Nostalgie, und sie wird wahrscheinlich nicht von den Unternehmen selbst kommen. Sie wird, wenn sie kommt, von Regulierung kommen (der Digital Markets Act der EU ist ein Anfang), von Wettbewerb (kleinere Tools wie Kagi, die Nutzer direkt berechnen und daher aufeinander abgestimmte Anreize haben) oder von Nutzern, die genug kollektive Irritation entwickeln, um die Wechselkosten wert zu finden. Bis dahin werden die Plattformen weiterhin tun, was sie immer getan haben, wenn sie ausreichende Größe erreichen: entscheiden, dass sie besser wissen als die Menschen, denen sie dienen.
Das stimmt meistens nicht.



