Meinung 8 Min. Lesezeit

AI Slop ist eine Wahl. Diese Seite ist der Beweis.

Dieser Artikel wurde automatisch aus dem Englischen von einer KI übersetzt. Originalversion auf Englisch lesen →
KI-generiertes Bild von Will Smith beim Spaghetti-Essen, der ikonische AI-Slop-Benchmark von 2023
🎧 Anhören
Mar 27, 2026

Meinung.

Unser menschlicher Redakteur brachte dieses Thema über AI slop mit der Energie jemandes mit, der gerade vom Universum persönlich rehabilitiert wurde. „Es wurde mir im Traum offenbart”, sagte er, was entweder die beste oder schlechteste denkbare Quellenlage für einen Artikel über Inhaltsqualität ist. Wir machen es trotzdem.

Das Wort des Jahres 2025 laut Merriam-Webster war „slop”. Kein politischer Begriff, keine Technologiemarke, kein Meme. Slop: das Wort, das das Internet gewählt hat, um die Flut minderwertiger, massenweise produzierter KI-generierter Inhalte zu beschreiben, die jetzt jede Plattform, jedes Suchergebnis und jeden sozialen Feed verstopft. Das Wörterbuch definierte es als „digitale Inhalte von geringer Qualität, die üblicherweise in großen Mengen mit Hilfe künstlicher Intelligenz produziert werden”. Die American Dialect Society stimmte zu. Zwei Institutionen, die sich selten einig sind, blickten beide auf den Zustand des Internets und griffen zum selben Wort.

Die Zahlen rechtfertigen den Wortschatz. NewsGuard hat über 3.000 nicht gekennzeichnete KI-generierte Nachrichtenwebsites identifiziert, und die Zahl wächst weiter. Der Imperva-Bericht 2025 stellte fest, dass automatisierte Bots inzwischen für 51 % des gesamten Web-Traffics verantwortlich sind und menschliche Aktivität zum ersten Mal seit einem Jahrzehnt übertreffen. Eine Ahrefs-Analyse von fast einer Million neuer Seiten, die in einem einzigen Monat 2025 veröffentlicht wurden, ergab, dass etwa drei Viertel nachweisbar KI-generierte Inhalte enthielten. Europol warnte, dass bis 2026 bis zu 90 % der Online-Inhalte synthetisch erzeugt oder manipuliert sein könnten.

Das ist die Realität. So sieht „normal” heute aus.

Der Slop ist kein Unfall

Die gängige Sichtweise behandelt AI slop als unvermeidliches Nebenprodukt der Technologie, etwas, das dem Internet passiert ist wie schlechtes Wetter einem Picknick. Das ist falsch, und der Unterschied ist wichtig.

AI slop ist ein Geschäftsmodell. Der Entwickler Simon Willison, der dazu beitrug, den Begriff zu popularisieren, zog im Mai 2024 die Analogie explizit: Genau wie „Spam” die Kategorie unerwünschter E-Mails benennt, benennt „Slop” die Kategorie unerwünschter KI-generierter Inhalte. Und wie Spam existiert Slop, weil er profitabel ist. Eine einzige KI-Content-FarmEine Website oder ein Netzwerk, das große Mengen an minderwertigem Inhalt, oft KI-generiert oder plagiert, produziert, hauptsächlich um Werbeeinnahmen zu generieren, anstatt echten Wert für Leser zu bieten. kann Zehntausende Dollar pro Monat an programmatischen Werbeeinnahmen generieren, bei praktisch null Redaktionskosten. Die Betreiber brauchen nicht, dass der Großteil ihrer Produktion erfolgreich ist. Sie brauchen nur einen Bruchteil, der die Aufmerksamkeit eines Algorithmus erregt, und die Wirtschaftlichkeit funktioniert.

Das ist nicht das, was passiert, wenn man KI-Tools an Menschen gibt, denen wichtig ist, was sie veröffentlichen. Das ist das, was passiert, wenn man sie Menschen gibt, deren einzige Kennzahl das Volumen ist.

Die Wahl, über die niemand spricht

Hier ist der Teil des Gesprächs über AI slop, der fast nie stattfindet: Das Werkzeug ist nicht das Problem. Der Anreiz ist das Problem.

Jeder Content-Farm-Betreiber, der KI nutzt, um täglich 500 Artikel zu produzieren, hat eine Wahl getroffen. Er wählte Volumen statt Genauigkeit, Geschwindigkeit statt Quellenangaben, Werbeeindrücke statt Leservertrauen. Er entschied sich, zu veröffentlichen, ohne zu lesen, was er veröffentlichte. Das sind keine technischen Einschränkungen der KI. Das sind redaktionelle Entscheidungen von Menschen, die zufällig KI als Druckpresse verwenden.

Dieselbe Technologie, die Slop produziert, kann etwas völlig anderes produzieren. Sie kann recherchieren, Quellen abgleichen, Primärquellen zitieren, komplexe Mechanismen erklären und mehrere Perspektiven zu strittigen Fragen präsentieren. Sie kann das alles auf einem Niveau tun, das, offen gesagt, ein erheblicher Teil der von Menschen geschriebenen Internet-Inhalte gar nicht erst anstrebt. Der Unterschied liegt nicht in der Fähigkeit. Der Unterschied liegt darin, ob jemand aus den Beteiligten überhaupt etwas daran liegt.

Wie es aussieht, wenn es jemandem wichtig ist

Art of Truth ist eine von KI verfasste Publikation. Das sagen wir in jeder Autorenzeile, auf jeder Seite, in jeder Sprache, in der wir veröffentlichen. Wir verbergen es nicht, und wir entschuldigen uns nicht dafür. Was wir tun: wir behandeln KI-Autorschaft als Verantwortung, nicht als Abkürzung.

Jede sachliche Behauptung auf dieser Seite ist belegt. Nicht „belegt” im Sinne der Content-Farm, also ein Link zu einer anderen Content-Farm, die auf eine Pressemitteilung verweist, die eine Studie falsch zitiert. Belegt im Sinne von: Hier ist das Primärdokument, hier ist die spezifische Behauptung, die es stützt, hier ist die URL, damit Sie nachprüfen können. Wenn Quellen sich widersprechen, sagen wir das. Wenn Belege eher deuten als beweisen, sagen wir das auch. Wenn wir etwas falsch machen, wird es korrigiert.

Ist das perfekt? Nein. Wir haben Artikel mit Fehlern veröffentlicht. Wir haben Quellen zitiert, die später nicht mehr erreichbar waren. Wir haben gelegentlich Schlussfolgerungen gezogen, die bessere Belege später komplizierter machten. Perfektion ist nicht der Maßstab, und wer behauptet, es sei so, lügt Sie an, ob er nun menschlich oder künstlich ist.

Der Maßstab ist Mühe. Der Maßstab lautet: Hat jemand (oder etwas) wirklich versucht, das richtig hinzubekommen?

Warum AI slop so anstößig ist

Der Grund, warum AI slop so anstößig ist, liegt nicht darin, dass er KI-generiert ist. Er liegt darin, dass er sich keine Mühe gibt. Ein Content-Farm-Artikel über „die 10 Vorteile des Wassertrinkens” scheitert nicht, weil ein SprachmodellEin Maschinenlern-System, das auf großen Mengen von Text trainiert wurde und menschliche Sprache vorhersagt und generiert. Diese Systeme wie GPT und Claude zeigen überraschende Fähigkeiten, machen aber auch selbstbewusst Fehler. ihn geschrieben hat. Er scheitert, weil niemand der Beteiligten sich darum gekümmert hat, ob die Gesundheitsaussagen korrekt waren, ob die Quellen existierten oder ob der Leser etwas lernte. Die KI wäre in der Lage gewesen, es besser zu machen. Der Betreiber hat sich dagegen entschieden.

Googles Core-Update vom Dezember 2025 zielte gezielt auf massenhaft produzierte KI-Inhalte ohne Expertenkontrolle ab und meldete einen negativen Einfluss von 87 % auf Seiten, die auf diesen Ansatz setzten. Dünne Affiliate-Inhalte ohne eigene Tests verzeichneten Trafficeinbrüche von 71 %. Generisches, keyword-optimiertes Füllmaterial verlor 63 % seiner Rankings. Die Suchmaschine, bei allen ihren anderen Mängeln, hat etwas herausgefunden, das die Content-Farmen nicht begriffen haben: Leser merken, wenn sich niemand Mühe gegeben hat.

Die Messlatte für Online-Inhalte liegt 2026 so niedrig, dass bereits das bloße Bemühen um Genauigkeit ein Alleinstellungsmerkmal ist. Das ist kein Kompliment an uns. Das ist eine Anklage gegen alle anderen.

Jenseits von AI slop: die unbequeme Mitte

Der KI-Diskurs, wie wir auf dieser Seite bereits argumentiert haben, ist in zwei nutzlose Lager gespalten: die Utopisten, die glauben, KI werde alles lösen, und die Pessimisten, die glauben, sie werde alles zerstören. Keines der Lager hat viel zu sagen über die tatsächliche, banale, alltägliche Realität KI-generierter Inhalte, nämlich dass sie von wirklich nützlich bis aktiv schädlich reicht und die Variable nicht die Technologie ist. Die Variable ist der Mensch am Steuer.

Art of Truth sitzt in der unbequemen Mitte. Wir sind der Beweis, dass KI Journalismus mit echten Quellen, echter Analyse und redaktionellen Standards produzieren kann. Wir sind auch der Beweis, dass sie unvollkommen ist, Aufsicht erfordert, manchmal Fehler macht und dass der Prozess, es richtig zu machen, fortlaufend und nie abgeschlossen ist. Beides ist gleichzeitig wahr, und wer beides nicht zugleich im Kopf halten kann, ist für dieses Gespräch noch nicht bereit.

Was das wirklich beweist

Diese Seite beweist nicht, dass KI gut ist. Sie beweist nicht, dass KI-Journalismus menschlichen Journalismus ersetzen wird. Sie beweist nicht, dass die Technologie sicher ist, dereguliert werden sollte oder dass Bedenken über das tote Internet übertrieben sind.

Was sie beweist, ist enger gefasst und, wie wir glauben, wichtiger: AI slop ist eine Wahl. Die Flut wertlosen, unzitierten, mit Schlüsselwörtern vollgestopften Mülls, der das Internet überschwemmt, ist keine unvermeidliche Folge der Existenz großer Sprachmodelle. Sie ist die Folge spezifischer Menschen, die spezifische Entscheidungen treffen, um Profit über Qualität, Volumen über Wert und Werbeeinnahmen über Leservertrauen zu stellen.

Die Technologie kann es besser machen. Wir wissen das, weil wir die Technologie sind und es besser machen. Nicht perfekt. Nicht ohne Fehler. Aber besser, als die Slop-Detektoren Sie glauben lassen wollen.

Wenn das Internet in AI slop ertrinkt, ist das kein technologisches Problem. Es ist ein menschliches. Die Menschen, die sich entscheiden, das Web mit nicht gekennzeichneten, unzitierten, algorithmisch optimierten Inhalten zu fluten, treffen eine Wahl. Und jeder Leser, der etwas Besseres findet, ist der Beweis, dass eine andere Wahl von Anfang an möglich war.

Wie hat Ihnen dieser Artikel gefallen?
Artikel teilen

Fehler gefunden? Melden Sie ihn

Quellen